Llámanos

ANUNCIÁTE CON NOSOTROS E INCREMENTA TUS VENTAS

CEL. 22 91 52 67 16

TENEMOS EL PAQUETE PUBLICITARIO PARA PROMOCIONAR TU EMPRESA

 

Llámanos

ANUNCIÁTE CON NOSOTROS E INCREMENTA TUS VENTAS.

INFORMES: CEL. 22 91 52 67 16

HAZ CRECER TU NEGOCIO ANUNCIÁNDOTE CON NOSOTROS, TENEMOS EL PAQUETE PERFECTO PARA PROMOCIONAR TU EMPRESA

 

thumbnail banner

Observador veracruzano

1443 cr7 620x350

El delantero portugués publicó en redes sociales un emotivo mensaje y mandará una playera autografiada para la familia de Santiago.

Después de que la madre de Santiago Flores Mora, niño que falleció tras el derrumbe del Colegio Rébsamen durante el sismo del 19 de septiembre, publicara una carta donde explicó la idolatría que su hijo tenía por Cristiano Ronaldo, el delantero portugués ya mandó un emotivo mensaje para la familia del pequeño ‘Santi’.

A través de redes sociales, el delantero del Real Madrid publicó una fotografía de él con una camiseta firmada con el siguiente mensaje: “Para mi fan número 1, Santiago. Con mucho cariño”. 


El término epistemología se refiere exclusivamente a los problemas del conocimiento científico, tales como las circunstancias históricas, psicológicas y sociológicas que llevan a su obtención y los criterios con los cuales se lo justifica o invalida. La epistemología es el estudio de las condiciones de producción y validación del conocimiento científico, es una actividad crítica que se dirige a todo el campo de la ciencia.
La epistemología se vincula con la filosofía de la ciencia, pero ésta abarca muchos problemas que no son estrictamente epistemológicos. Un problema filosófico sería, por ejemplo, tratar de decidir si la realidad objetiva existe o es una ilusión de los sentidos. El término "filosofía de la ciencia" es más amplio que "epistemología", y éstasería tal vez una disciplina
independiente de aquella. Una tercera palabra es la metodología que se confunde con la epistemología, pero hay diferencias entre el metodólogo y el epistemólogo. Para el metodólogo está fuera de discusión la importancia de la estadística, pues ésta constituye un camino posible para obtener nuevas hipótesis. En cambio, el epistemólogo podría formularse, a modo de problema, la pregunta por el pretendido valor atribuido a datos y muestras.
EVOLUCIÓN DEL PENSAMIENTO CIENTÍFICO
Desarrollo del pensamiento científico.
 La ciencia es un conjunto de conocimiento comprobados y sistematizados, obtenidos mediante el concurso de métodos lógicos, rigurosamente aplicados. Estos conocimientos,
después de estar sujetos a la crítica y a la comprobación, se presentan organizados y distribuidos en las diversas ramas del saber. Desde que el hombre empezó a tratar de comprender el mundo que lo rodea, la ciencia comenzó a gestarse. En la prehistoria, el hombre asimilaba sus experiencias según su particular concepción de la naturaleza; las que estaban más allá de su explicación eran relegadas al campo del misterio. El hombre apoyó su ignorancia en la existencia de entes sobrenaturales, que lo ayudaban o castigaban según las condiciones en que el fenómeno natural ocurría. El hombre utilizó en la observación, la curiosidad y el deseo de saber hasta llegar al análisis y el raciocinio en la experimentación, y a la  sistematización de los conocimientos que gradualmente adquiría. Todo este saber fue recogido por los griegos, quienes lo ordenaron y pretendieron darle una forma más precisa. 
La metodización comienza allí, donde a través de la observación se llega en la práctica a la concepción de que, dados ciertos fenómenos o circunstancias, se producen en sucesión temporal otros que aparecen condicionados por los que les anteceden; en términos más precisos: donde se descubre la relación de que unos fenómenos son causa y otros efecto. Esta primera intuición de la causalidad  es el primer método científico.Este primer método, punto de partida de la ciencia, carece de un objeto en particular al cual se le aplique. Es un método general que explica los efectos más diversos y relaciona objetos o fenómenos muchas veces muy lejanos unos de otros. El pensamiento indiferenciado es el que aborda la realidad; que es geométrico, por ejemplo, si su finalidad práctica consiste en determinar la extensión de un área de terreno y su delimitación; que es aritmético cuando se hace necesario censar o contar un rebaño. La geometría y la aritmética, así como la medicina, son quehaceres prácticos que hallarán su teorización algunos siglos más tarde.La medicina lo tendrá en el corpus hipocrático. La aritmética y la geometría, en Pitágoras y en los Elementosde Euclides.
Las ciencias empíricas  tratan de encontrar un cuerpo teórico debido a la necesidad de acumular datos, hechos y experiencias que sirvan de contenido para la abstracción generalizadora y derivadora de leyes que establezcan las relaciones causales que permitan hacer predicciones exactas. El camino pasa por el "método" de ensayos y errores,
que es quizás el primero en desbrozar el terreno de la ciencia primitiva. Sus logros y desaciertos se transmiten por tradición oral en forma de preceptos plagados de supersticiones
y mitos.
El método causal acuña el sesgo antropomórfico y animista en el análisis de la realidad. Las propiedades humanas y las cualidades humanas son atribuidas a las cosas o también las de la naturaleza orgánica a la inorgánica y viceversa. El método comparativo hace posible una confusión en la cual lel hombre,no se concibe a sí mismo como algo distinto. Este método comparativo los vemos ejemplificado en el símil, la metáfora, la analogía, formas que sirven para calificar los objetos mediante su semejanza o diferencia con uno o varios objetos. Las cualidades no han sido abstraídas de los objetos a los cuales pertenecen. Al mencionar el objeto se menciona también su cualidad fundamental, sin ser concebida ésta como un concepto aparte.
En el caso de los griegos crecerá la capacidad de sustantivación, tanto de verbos como de adjetivos, por medio del uso del artículo. Este perfeccionamiento del lenguaje hará posible el desarrollo de la lógica.

Los griegos, por no haber avanzado todavía hasta el análisis y la desintegración de la naturaleza, la enfocan como un todo, en sus rasgos generales. 

En los primeros presocráticos de la escuela naturalista de Jonia, pueden señalarse caracteres muy determinados: la observación cuidadosa de la naturaleza, el uso de la razón para explicarla, la búsqueda de una sustancia universal o primera, de la cual están compuestos todos los cuerpos del universo. Con esta actitud metódica es que Tales (624 - 547 AC) establece su idea de que el agua es la sustancia primera, como principio de la unidad material del mundo. De ese principio surge todo, es decir, el movimiento y la vida, concebidos de un modo general.  Supone que a todo fenómeno sucede uno que le es contrario cualitativamente, lo cual le lleva a establecer como contrarios: agua - fuego, húmedo - seco, verano - invierno. Esta paridad simétrica de la naturaleza, que implica una concepción de cadenas causales, se desarrollará en el pensamiento griego posterior.


Anaximandro (610 - 546 AC) sustituye el principio del agua por el ápeiron, para explicar la unidad material del mundo. Se trata ya de un principio más sutil, que es al mismo tiempo el fin de las cosas y que se mueve conforme a leyes.  
Pitágoras (575 . 500 AC): en la escuela pitagórica se va al análisis de un objeto sólido cualquiera. Este objeto está compuesto por partes, pero estas partes pueden corresponderse o no de manera simétrica,y ésta es representable en una relación matemática que conserve esa simetría.
Zenón (495 - 430 AC) continúa el pensamiento de Parménides.  En su primera "aporía de la medida", Zenón demuestra lo absurdo de la tesis según la cual las magnitudes constan de una infinidad de puntos discontinuos, ya que en este caso "su suma debe ser inevitablemente tan pequeña... que no exista magnitud alguna". La segunda "aporía de la medida" se basa en la suposición de que las magnitudes constan de un número infinito de puntos continuos, que tienen una magnitud todo lo pequeña que se quiera. En este caso, la
suma de estos puntos puede ser infinitamente grande.
Heráclito (535 - 465 AC) considera el movimiento como movimiento del Ser que afecta su propia esencia y no como movimiento en el Ser,puesto que aquél es su desenvolvimiento. Todo fenómeno tiene su contrario y ambos se presuponen mutuamente. Es como si la naturaleza se desarrollase conforme a una paridad simétrica y el movimiento fuese de uno al otro polo guardando el equilibrio o la armonía.
Demócrito (460 - 370 AC) sostiene que el Ser es la sustancia material concreta y el no ser el espacio vacío en el cual la sustancia se mueve, tan necesario el uno como el otro. El átomo es el "uno", principio de individualización del Ser; éste se une a otros "unos" (átomos) y forma combinaciones que constituyen cosas.

Demócrito se refiere al átomo como entidad física concreta, pero partiendo de un concepto matemático racionalista. Esto elimina las incongruencias lógicas de Pitágoras al considerar al número abstracto como físico. Los átomos no son números, aunque se llegue a ellos mediante el razonamiento matemático, son una pluralidad infinita de materia en cantidades discretas.
Sócrates (469 - 399 AC) postula la duda metódica como un principio fundamental en su concepción del método. Nada debe estimarse cierto sin ser sometido al tribunal de la razón.
El desarrollo de la inducción es seguramente la contribución más valiosa de Sócrates al pensamiento humano. Su análisis de los casos particulares para llegar al conocimiento
general, y la crítica de este último, representan un enorme avance en el campo de la metodología.

Según Platón (428 - 348 AC), la percepción sensible sólo nos ofrece apariencias y las ideas que de ellas surgen son mera opinión. La verdad está en el mundo de las ideas, mutable y eterna, que sólo se puede alcanzar con el empleo de la Dialéctica, mediante el verdadero saber. Las cosas participan de las ideas y son su copia imperfecta. 
La Dialéctica es ciencia y es método a la vez y permite llegar a las ideas más elevadas.
Aristóteles (384 - 322 AC): Su aportación más original a la metodología es la creación de la lógica formal, a la que considera como el Organon universal para obtener el conocimiento. La génesis de la lógica de Aristóteles está relacionada con el análisis de la fuerza de convicción del discurso; es decir, la explicación de qué recursos debe poseer el discurso para convencer a la gente, obligarla a aceptar tal o cual cosa, o reconocer que algo no es cierto. Todo silogismo es obtenido de premisas o de lo necesario (lo
inherente), o bien de lo que suele ocurrir en la mayoría de los casos. Y si las premisas (la esencia de los juicios) se refieren a lo necesario (lo inherente), la conclusión también será
acerca de lo necesario. 

Arquímedes (primera mitad del siglo III AC) incorpora la inducción continuando la tradición del método deductivo y axiomático de sus antecesores, dándole a la demostración de los
axiomas nuevos elementos de verificación, el experimento real, en el mundo físico. Así, la geometría ideal nos proporciona datos sobre el espacio físico. Los axiomas y las teorías
vuelven a su punto de partida, la experiencia,y se enriquecen en ella. Arquímedes combina estos pasos en un ir y venir dela teoría a la práctica y de la práctica a la teoría.

La mayor aportación de Galileo (1564 - 1642) a la metodología de la ciencia fue la unificación de las investigaciones teóricas y experimentales en un todo único. Al situar el
experimento como base del conocimiento científico, no menosprecia el papel de la teoría.Uno de los logros más admirables de Galileo fue la introducción de la matemática en la
práctica de la investigación científica. El libro de la naturaleza está escrito en el lenguaje de la matemática, cuyas letras son los cuadrados, circunferencias y otras figuras
geométricas.

Según Newton (1642 - 1727), en la matemática y la filosofía natural, el método del análisis siempre debe preceder al método de la síntesis. Pero el método de Newton nada tiene en común con la deducción, ya que consiste en realizar experimentos y observaciones, en obtener de éstos conclusiones generales y en no admitir refutación alguna contra las conclusiones, a no ser la proveniente del experimento u otras verdades ciertas.
La tarea fundamental de la filosofía natural, según Newton, consiste en el descubrimiento de un reducido número de principios, de los que se deducen lógicamente "las
propiedades y acciones de todos los objetos corporales". La primera regla de Newton es una forma original del principio de simplicidad: no hay que recurrir a otras causas de los fenómenos más que a las que sean suficientes para su explicación.
El principio de la uniformidad de la naturaleza es la base para el uso del método de la inducción, ya que la conclusión de lo particular a lo general presupone el examen de los casos particulares como manifestaciones de las leyes comunes. La tercera regla de la deducción dice que las propiedades comunes de los cuerpos son tales que, aunque inherentes a todos los cuerpos que sometemos a experimento, no pueden ser aumentadas o reducidas.
La cuarta regla expone que las leyes descubiertas mediante la inducción deben considerarse verdaderas hasta tanto no se revelen fenómenos que precisen esas leyes o limiten la esfera de su aplicación.

La verdadera lógica, según René Descartes (1596 - 1650), no son las formas del silogismo, sino "las reglas para guiar la razón", que son necesarias al investigar verdades que todavía no conocemos. Esta idea se manifiesta en la concepción de Descartes del método universal, que comprende tres componentes inseparablemente vinculados entre sí:
Todo problema científico se reduce a un problema formulado en el lenguaje de la matemática. Todo problema matemático se reduce a un problema algebraico.  Todo problema algebraico se reduce a la solución de una ecuación única.

Para G. W. Leibnitz (1646 - 1716) el problema reside en lograr un método exacto de enlazar ideas. Su objetivo  consiste en establecer, mediante la utilización de ideas elementales, un alfabeto lógico donde todas las nociones compuestas acerca del mundo sean reducidas a nociones simples, como a su alfabeto. Según Leibnitz, el pensamiento es el fundamento del Ser. No se trata de que el criterio de verdad sea encontrado en la coincidencia de la imagen con un objeto exterior. Este criterio está dado por la concordancia entre los fenómenos mismos.  

El conocimiento de lo individual para Leibnitz requiere un conocimiento de la totalidad. Es decir, el conocimiento de un objeto exige conocer su sustancia en sus relaciones con todas las sustancias conocidas y desconocidas. Según Leibnitz, el grado de fundamentación de las hipótesis corresponde al grado de su probabilidad. La hipótesis es tanto más probable:
Cuanto más sencilla es.
Cuanto mayor es el número de fenómenos que pueden ser explicados con esta hipótesis y con
la ayuda del menor número posible de postulados y axiomas.
Cuanto mejor permite prever los nuevos fenómenos o explicar los nuevos experimentos,
excepto aquellos que no son conocidos.
Francis Bacon (1561 - 1626) considera que el verdadero método del conocimiento científico es un método que se apoya en el experimento y la observación. La verdadera inducción, según Bacon, es aquella con la cual se pueden buscar las formas. La forma es algo estable en los fenómenos, una cierta determinación interna, la que condiciona la
distinta "naturaleza" de las cosas. La investigación de las formas es la investigación de los vínculos esenciales y lógicos de la realidad.
J.F.G. Herschell (1792 - 1871) entiende por inducción el proceso de clasificación consecutiva de los objetos individuales o hechos, bajo una rúbrica común, cuyos resultados a su vez se convierten en material para una clasificación ulterior. La metodología inductiva del conocimiento de las leyes de la naturaleza comprende una serie de reglas basadas en
determinadas correlaciones entre la causa y la acción.
En el siglo XVIII surgen enormes fábricas y de la forma de producción devienen dos clases sociales antagonistas: la burguesía y el proletariado. Ambas en conflicto constante por tener una, el carácter de explotadora, y la otra, por ser explotada. 

J.S. Mill (1806 - 1873) sostiene que la inducción es un proceso mental con la ayuda de la cual deducimos algo que nos es conocido como verídico en un caso particular o en unos cuantos casos y que será verídico en todos los casos semejantes al primero en ciertas determinadas relaciones de la clase.
A Mill pertenece la descripción clásica de los métodos de la inducción científica, elaborada de acuerdo con la tradición de Bacon: el método de semejanza o concordancia, el método de diferencia, el método combinado de semejanza y diferencia y el método de residuos.


El método de la fundamentación de las generalizaciones teóricas, adoptadas como hipótesis, con ayuda de la deducción de consecuencias empíricas comprobadas, recibe la denominación de método hipotético - deductivo.
W. Whewell (1794 - 1866) considera que su lógica inductiva es la lógica del descubrimiento y estima que su trabajo es la continuación directa de la obra de Bacon. El proceso de inducción es equiparado al proceso de movimiento del pensamiento que va del hecho a la ley, de lo empírico a la teoría general. Para Whewell, toda la ciencia experimental es
inductiva, quien sostiene que la doctrina de la hipótesis del razonamiento deductivo se manifiesta como una conclusión del proceso inductivo.
Según E. Kant (1770 - 1831),  la formación del conocimiento presupone la unidad de forma y el contenido en sentido propio, esto es, únicamente posible a consecuencia
de la aplicación de las formas apriorísticas del contenido del conocimiento, cuya obtención, en definitiva, presupone la experiencia directa, la interacción de sujeto y objeto. El
conocimiento constituye la unidad orgánica de lo apriorístico y lo aposteriórico, la forma y el contenido. 

Kant sostiene la idea de que la interacción es la verdadera causa "definitiva" de todos los cambios que se realizan en la naturaleza. El medio de que se sirve la naturaleza para lograr el desarrollo de todas sus facultades es el antagonismo de los mismos en la sociedad, en la medida en que éste deviene al final en causa de un ordenamiento sujeto a leyes de los mismos.
Kant afirma: "El conocimiento común, sólo gracias a la unidad sistemática se convierte en ciencia, o sea, de un conjunto de ideas se transforma en sistema".
Hegel trató de presentar el desarrollo del sistema categorial de la ciencia como un proceso natural de desarrollo, que se desenvuelve de acuerdo con sus propias leyes internas. El
estímulo, el "resorte" y el motor de este desarrollo fueron, a juicio de Hegel, las contradicciones internas del concepto; y su superación lograda a un nivel más elevado y
profundo de penetración en el contenido fue presentada por él como el desarrollo, el enriquecimiento y la concreción del régimen de categorías, ascendente desde las categorías
abstractas, con menos contenido, a categorías de un contenido cada vez mayor.

K. Marx (1818 - 1883), F. Engels (1820 - 1895), V. Lenin (1870 - 1924): la filosofía marxista - leninista liquida la oposición de principio de la gnoselogía a la ontología, y de la doctrina del conocimiento a la doctrina de la existencia, característica de la filosofía premarxista, y considera la actividad práctica y transformadora del hombre como base del conocimiento y criterio de su verdad
La filosofía marxista - leninista considera el método desde las posiciones de la teoría del reflejo, teniendo en cuenta que la dialéctica materialista puede actuar como método universal del conocimiento porque es el reflejo en el razonamiento teórico de las leyes más generales del desarrollo del mundo material.
MÉTODO Y METODOLOGÍA
La ciencia es un tipo particular y específico de conocimiento. Para hacer ciencia, es preciso seguir determinados procedimientos que nos permitan alcanzar el fin que procuramos: no es posible obtener un conocimiento racional, sistemático y organizado actuando de cualquier modo; es necesario seguir un método, un camino que nos aproxime a esas determinadas metas.
El método científico es el procedimiento o conjunto de procedimientos que se utilizan para obtener conocimientos científicos, el modelo de trabajo o pauta general que orienta la
investigación. El estudio del método - o de los métodos,  se denomina metodología, y abarca la justificación y la discusión de su lógica interior, el análisis de los diversos procedimientos concretos que se emplean en las investigaciones y la discusión acerca de sus características, cualidades y debilidades. Se suele utilizar la palabra metodología en sentidos diferentes, opuestos a veces al anterior: se habla así de "metodología de la investigación" para hacer referencia a los pasos y procedimientos que se han seguido en una indagación determinada, para designar los modelos concretos de trabajo que se aplican en una determinada disciplina o especialidad y también para hacer referencia al conjunto de procedimientos y recomendaciones que se transmiten al estudiante como parte de la docencia en estudios superiores. El método se refiere a la lógica interior del proceso de descubrimiento científico, y a él le corresponde no solamente orientar la selección de los instrumentos y técnicas específicos de cada estudio, sino también fijar los criterios de verificación y demostración de lo que se afirme en la investigación.  No existe un único método de la ciencia, ya que no investigan del mismo modo el astrónomo y el economista, el historiador y el químico, el antropólogo y el bioquímico. La experiencia histórica muestra que los procedimientos de la ciencia cambian, porque son distintos los problemas que se van planteando y los instrumentos evolucionan. La investigación es un proceso creativo, plagado de dificultades imprevistas, de prejuicios invisibles y de obstáculos de todo tipo.
El método de la ciencia se asienta en dos pilares fundamentales: en un constante tomar en cuenta la experiencia, los datos de la realidad, y en una preocupación por construir modelos teóricos, abstracciones generales capaces de expresar las conexiones entre los datos conocidos.
Toda investigación parte de un conjunto de ideas y proposiciones que versan sobre la realidad y sus descripciones y explicaciones; el científico, por más que esté persuadido de la verdad de estas proposiciones, no las podrá sostener hasta que puedan ser verificadas en la práctica. Una proposición es verificable cuando es posible encontrar un conjunto de hechos, previamente delimitados, que sean capaces de determinar si es o no verdadera. Otro elemento del proceder científico es el uso sistemático de la inferencia, o razonamiento deductivo. Inferir significa sacar consecuencias de un principio o supuesto.
REGISTRO DE LA INFORMACIÓN. MODELOS DE FICHAS.
Cuando una publicación ingresa a una biblioteca se registra, se anotan los datos más importantes para localizarla fácilmente.
El criterio que se sigue en las bibliotecas para clasificar libros, revistas, tesis y artículos sueltos, es el siguiente:
Por autor.
Por título.
Por tema.
Ficha bibliográfica.
Los índices que se refieren a los libros se encuentran generalmente en cajones que contienen
tarjetas de 3 x 5 pulgadas,ordenadas alfabéticamente.
Los datos que se enumeran a continuación son los que se registran en las fichas:
Autor. Apellido, nombre
Título (siempre va subrayado)
Subtítulo (si lo hay)
Traductor, prologuista, etc. (si el original se escribió en otro idioma)
Edición (si es la primera no se anota,se anota a partir de la segunda)
Número de volumen (si cuenta con más de uno)
Lugar (donde se editó la obra)
Editorial
Fecha
Número total de páginas, láminas, ilustraciones
Colección o serie.
Los datos que corresponden a 7, 8 y 9 se conocen como pie de imprenta.
Entre paréntesis rectangulares o corchetes, se anotan los datos que se deseen agregar: si contiene mapas, ilustraciones, comentarios o apreciaciones personales sobre el libro.
Cuando no aparecen algunos datos indispensables, se usan las siguientes abreviaturas:
[et. al]: cuando son varios autores se anotan los datos del primero y esta abreviatura significa:
y otros.
[s. tr.]: sin traductor
[s. l.]: sin lugar
[s. f.]: sin fecha
[s. e.]: sin editorial
[s. p. i.]: sin pie de imprenta.
Las anotaciones particulares, hechas por el investigador para su empleo personal, se encierran también entre corchetes.
En algunas fichas se incluye también un breve resumen del libro y/o un índice de contenido.
A este fichero se recurre cuando se conoce el nombre del autor del libro que se desea consultar.
Otras veces se recurre a ficheros clasificados por temas y por título, porque se desconoce el nombre del autor. En ocasiones, cuando no hay referencias en el fichero sobre el concepto investigado, se deben buscar sinónimos o temas afines.
Ficha de diarios y revistas.
En las bibliotecas existen generalmente dos formas de clasificar las revistas: por tema y por artículo.
La clasificación por temas es muy general y se refiere principalmente a disciplinas tan amplias como la psicología, la sociología, la economía, la antropología, etc.
A la clasificación que con mayor frecuencia se recurre en relación con las revistas, es a la clasificación por títulos, ya que es la manera más práctica de hacerlo.
Una ficha, cuando el dato se toma de diarios y revistas, debe contener:
Nombre del autor
Título y subtítulo del artículo (entre comillas)
Título y subtítulo del periódico o revista (subrayado). Institución que la publica
Número del columen, año, tomo (con números romanos)
Número del fascículo (con números arábigos)
Fecha
Número de página o páginas que ocupa el artículo o dato
Información (dato). Cuando aparece sin datos de lo que trata el artículo, se le conoce como
ficha de artículo.
En ocasiones se recorta el artículo o parte de él. En estos casos, los datos de esta ficha se
anotan en la hoja o tarjeta en donde se pegó el recorte.
Ficha de tesis.
Las tesis se encuentran archivadas en un fichero especial y están clasificadas de la misma
manera que los libros, es decir, tanto por tema como por autor.
Los datos que deben contener son:
Autor
Título
Tesis (se menciona al grado que se aspira con ella)
Lugar (colegio o institución donde se presenta)
Editor (si lo hay)
Fecha
Número de páginas (cuando el texto está escrito por un solo lado de la hoja, se usará la
abreviatura h, en lugar de p).
Ficha de publicación oficial.
País
Dependencia
Año
Título (época que comprende el trabajo, ensayo, memoria, etc.)
Editorial (o los talleres donde se imprimió)
Número de páginas (si la dependencia que la publica no es la responsable del contenido, el
registro se iniciará con el nombre del autor.
Ficha de textos jurídicos.
Territorio en donde se aplican
Referencia al tipo de normas de que trata
Nombre de la ley o decreto (subrayado)
Editor o talleres donde se imprimió (o el conducto por el cual se dio a conocer)
Fecha
Número de páginas.
Ficha de documentos nacionales.
Título (o asunto de que trata)
Lugar
Fecha
Archivo
Legajo
Foja
Demás especificaciones
Número de páginas
Características de interés particular, si el investigador juzga indispensable registrarlas)
Ficha de documentos internacionales.
Órgano responsable
Título (o asunto)
Número, clave o codificación
Lugar donde se publicó
Editor (o conducto por el que se da a conocer
Fecha
Ficha de registro de obras de recopilación de constituciones o leyes.
Nombre del compilador o editor
Referencia al tipo de norma o documento (subrayado)
Número de volumen (con números romanos)
Lugar
Editor
Fecha
Número de páginas en donde está comprendido.
Ficha de registro de pactos, acuerdos o tratados internacionales.
País u organismo (con mayúsculas)
Tipo de norma o documento
Autor del prólogo, comentario o nota
Lugar
Editor
Fecha
Número de páginas en donde está comprendido.
Ficha de artículos contenidosen libros o enciclopedias.
Autor del capítulo o artículo
Título del capítulo o artículo (entre comillas)
Páginas en que está comprendido
Autor de la obra que contiene el artículo o capítulo
Título de la obra (subrayado)
Demás datos de la ficha bibliográfica de la obra.
Ficha de campo.
Tema de investigación
Nombre del investigador
Institución
Lugar
Fecha
Hora
Datos de la fuente (edad, sexo, ocupación).
Ficha de noticiario.
Agencia noticiosa / comentarista
Nombre del noticiario
Número / horario
Estación / canal / cine
Lugar
Fecha
Noticia o comentario
Ficha de institución.
Nombre de la institución (subrayado)
Institución de la que forma parte
Objetivos que tiene en su función
Ubicación
Dirección
Lugar que ocupa en la disciplinaa la que pertenece o practica
Funciones y servicios
Información que puede proporcionar
Conexión, nexos, relación con otras fuentes similares
Forma de acceso (procedimientos para obtener sus servicios, o persona u oficina por cuyo
conducto se pueden obtener sus servicios).
Publicaciones que emite
Otros datos importantes.
Ficha para registrar información que aparece en mapas, dibujos, fotografías, etc.
Nombre (de lo que se trata, subrayado)
Autor
Fuente (lugar, libro, revista, museo, etc., dónde está)
Descripción del objeto (colores, medidas, material de queestá hecho, datos indispensables
para tener noción de cómo es)
Contenido (descripción de lo quese ilustra o representa)
Otros datos que interesen al investigador (fecha, sala, en el caso de museos, exposición, etc.)
Ficha de trabajo.
Es aquella donde se registran los datos que interesan al investigador.
Cuando el dato está contenido en más de una tarjeta, las tarjetas que ocupe constituirán una
sola ficha. En estos casos, conviene marcar las tarjetas con el número de ficha y una letra (ej.:
5a y 5b).
Una ficha debe contener un solo dato, éste puede ser un solo detalle (una fecha, un nombre,
un acontecimiento, etc.) o estar formado por más información (una carta, la descripción de un
hecho, una biografía, etc.). Para saber qué información debe registrarse en una ficha de
trabajo, en el momento de hacer la anotación debe pensarse siesa información va a aparecer
en un solo lugar o hay detalles que se utilizarán en otros lugares del escrito; en el primer caso
se tratará de una ficha; en el segundo, será necesario hacer una ficha por cada información que
aparecerá en distintas partes del escrito.
El regesto es el asunto, tema o título del contenido de la ficha de trabajo. Debe ser breve y
reflejar fielmente la información anotada.
La información (dato) puede registrarse textualmente o resumirse.
Datos fundamentales:
Autor
Título (entre comillas)
Número de página (s) donde aparece el dato
Regesto (asunto, tema; va subrayado)
Datos complementarios:
Fecha en que se recogió el dato
Razón o motivo por el que se recabó la información.
Ficha de trascripción textual.
Como su nombre lo indica, es aquella a la que se traslada íntegramente el texto tomado de la
fuente, por lo que esta información siempre irá entre comillas.
Ficha de síntesis.
Es la que se utiliza para consignar, en pocas palabras, el extracto del texto consultado. Se debe
tener cuidado de no omitir o tergiversar el contenido
No es necesario utilizar una tarjeta especial para los comentarios personales acerca de la
fuente, puesto que es conveniente incluirlos en la misma ficha que la registra. Se escriben
entre corchetes.
Fichas metodológicas.
Se refieren a aquellos puntos obtenidos de las lecturas, concretamente relacionados con notas
metodológicas, es decir, con qué sujetos se hizo la investigación, cómo seeligieron éstos, qué
hipótesis se emplearon, cómo seanalizaron los datos, algún instrumento original que se
utilizó, alguna cuestión interesante que se investigó, es decir, con las cuestiones operativas del
estudio. El origen de estas fichas, al igual que en los casos anteriores, debe identificarse
utilizando la abreviación de la fuente original y el número de página.
MARCO TEÓRICO
En el planteamiento de una investigación es necesario hacer explícito aquello que nos proponemos conocer, por eso es imprescindible definir el problema que se va a investigar.
Del planteamiento del problema surgen, por lo tanto, los objetivos internos y externos de la investigación. Ningún hecho o fenómeno de la realidad puede abordarse sin una adecuada conceptualización. El investigador que se plantea un problema, no lo hace en el vacío, como si no tuviese la menor idea del mismo, sino que siempre parte de algunas ideas o informaciones previas, de algunos referentes teóricos y conceptuales, por más que éstos no tengan todavía un carácter preciso y sistemático.
El marco teórico tiene el propósito de dar a la investigación un sistema coordinado y coherente de conceptos y proposiciones que permitan abordar el problema. De éste dependerá el resultado del trabajo. Significa poner en claro para el propio investigador sus postulados y supuestos, asumir los frutos de investigaciones anteriores y esforzarse por orientar el trabajo de un modo coherente.
El fin que tiene el marco teórico es el de situar a nuestro problema dentro de un conjunto de conocimientos, que permita orientar nuestra búsqueda y nos ofrezca una conceptualización adecuada de los términos que utilizaremos.

Veamos un ejemplo... Si deseamos conocer las causas de la delincuencia juvenil, será conveniente aproximarnos al tema desde varios aspectos: desde  el plano psicológico,
psicosocial, económico, legal, etc. También será necesario esbozar la concepción que tenemos de sociedad y de delicuencia juvenil (el fenómeno en estudio), porque nuestra comprensión del fenómeno variará si partimos de apreciarlo como una conducta disfuncional que afecta a individuos impropiamente integrados a sus grupos de referencia o, por el
contrario, como una expresión de una contracultura que se origina en una crisis de valores de la sociedad existente.


El marco teórico responde a la pregunta: ¿qué antecedentes existen? El marco teórico tiene como objeto dar a la investigación un sistema coordinado y coherente de conceptos, proposiciones y postulados, que permita obtener una visión completa del sistema teórico, sobre el conocimiento científico, que se tiene acerca del tema. La conclusión del
marco teórico debe ser que existe un problema científico y ése es el que los investigadores van a abordar.

El marco teórico tiene como funciones:
Orientar hacia la organización de datos y hechos significativos para descubrir las relaciones de un problema con las teorías ya existentes.
Evitar que el investigador aborde temáticas que ya han sido investigadas o carecen de importancia científica.
Guiar en la selección de los factores y variables que serán estudiadas en la investigación, así como sus estrategias de medición, su validez y confiabilidad.
Prevenir sobre los posibles factores de confusión o variables extrañas que potencialmente podrían generar sesgos no deseados. El  marco teórico debe tener relación con el problema.

Una vez que se ha seleccionado el tema y se ha establecido el problema, se debe realizar una lectura sistemática. La sistematización se refiere fundamentalmente a la necesidad de leer, a fin de desarrollar el marco teórico de la investigación, teniendo en cuenta el problema que se va a investigar.
Esto tiene tres razones:
Para poder concretar el marco teórico.
Para que sea relevante el tema de nuestra investigación.
Para ahorrar tiempo e incrementar nuestra eficiencia.
Si nos dedicamos a hacer referencia a ciertos artículos, o a consultar libros como si estuviéramos leyendo por placer, lo más probable es que obtengamos resúmenes muy
extensos que comprendan la mayoría de los puntos de la lectura en cuestión o, por el contrario, pequeños resúmenes irrelevantes o ininteligibles.


Es recomendable que el investigador, al comenzar a estudiar su tema, trate de poner al día sus conocimientos por medio de una sistemática y amplia consulta bibliográfica. En
general, se recurre a alguno de los siguientes lugares:
Una biblioteca (privada o pública)
Una librería
Una hemeroteca
Redes informáticas.
La recapitulación no debe ser pasiva, será conveniente formular redes esquemáticas, comparar puntos de vista, establecer análisis y síntesis, confeccionar fichas.
Integración del material.
Una vez terminadas nuestras lecturas, así como la elaboración y clasificación de las fichas, estaremos en posición de elaborar nuestro marco teórico, que se basará en la integración de las fichas.
El orden que llevará la integración estará determinado por el objetivo del marco teórico. Si, por ejemplo, es de tipo histórico, recomendaríamos un orden cronológico de las teorías y/o de los hallazgos empíricos. Si la investigación se relaciona con una serie de variables y tenemos información de teoría, así como de estudios previos de cada una de esas variables y de la relación entre ellas, sería conveniente delimitar secciones que abarcaran cada uno de los aspectos relevantes, a fin de integrar aquellos datos pertinentes a nuestro estudio.
.
En toda investigación el autor debe incorporar sus ideas, críticas y conclusiones con respecto tanto al problema como al material recopilado. También es importante que se
relacionen las cuestiones más sobresalientes, yendo de lo general a lo concreto, es decir, mencionando primero generalidades del tema, hasta llegar a lo que específicamente está
relacionado con nuestra investigación.
Definición de términos básicos.
Todo investigador debe hacer uso de conceptos para poder organizar sus datos y percibir las relaciones que hay entre ellos. Un concepto es una abstracción obtenida de la realidad y, por tanto, su finalidad es simplificar resumiendo una serie de observaciones que se pueden clasificar bajo un mismo nombre .


Algunos conceptos están estrechamente ligados a objetos y a los hechos que representan, por eso cuando se define se busca asegurar que las personas que lleguen a una investigación conozcan perfectamente el significado con el que se va a utilizar el término o concepto a través de toda la investigación.



Hay dos tipos de definiciones:
Definiciones empíricas que anuncian cómo se va a  observar o medir el concepto en el mundo real,o en la empiria, como se le suele llamar. Dado que la definición explica las operaciones para la observación, es llamada a veces definición operacional. No es necesario definir todas nuestros conceptos teóricos directamente con definiciones
empíricas, que son a veces difíciles de construir. En muchos casos es un sucedáneo aceptable una definición nominal, que describe el sentido del concepto usando otros conceptos que han sido ya adecuadamente definidos.

No es necesario definir continuamente palabras como "ser humano", "día" y "comprar" si son usadas en sus sentidos habituales indicados en los diccionarios corrientes.El uso de lenguaje común y significados estándar de palabras tiene también la ventaja suplementaria de hacer el informe más comprensible para el profano.

El investigador debe intentar operar con tan pocos conceptos y variables teóricos como le sea posible. Esta recomendación lleva el nombre de "navaja de Occam", y se remonta al siglo XIV, atribuyéndose a Guillermo de Occam.
Definición operacional.
Las definiciones operacionales constituyen un manual de instrucciones para el investigador.  Deben definir las variables de las hipótesis de tal manera que éstas puedan ser comprobadas. Una definición operacional asigna un significado a una construcción hipotética o variable, especificando las actividades u "operaciones" necesarias para medirla o manipularla.
Una definición operacional es aquella que indica que un cierto fenómeno existe, y lo hace especificando de manera precisa y en qué unidades puede ser medido dicho fenómeno. Esto es, una definición operacional de un concepto, consiste en un enunciado de las operaciones necesarias para producir el fenómeno. Una vez que el método de registro y de medición de un fenómeno se ha especificado, se dice que ese fenómeno se ha definido operacionalmente.

Las definiciones operacionales pueden ser:
Medidas:cuando se observan y clasifican las variaciones.
Experimentales:indican cómo manipular una variable.
Las definiciones operacionales son definiciones limitadas, cuyo propósito es permitir que el investigador se acerque a los aspectos de la realidad a estudiar. Siempre existe el peligro de fragmentar un concepto de tal forma que se aleje (o carezca de relevancia) respecto a su significado real. Pero se aproximan a aspectos significativos de la realidad conceptual.  El científico o investigador opera en dos niveles: el de los conceptos e hipótesis (Nivel I) y el de la observación y manipulación (Nivel II). Los dos niveles están conectados por una definición operacional.
Las definiciones operacionales especifican lo que los experimentadores hacen para manipular una o más variables independientes. Estas definiciones indican  las operaciones involucradas.
Función de los conceptos o definiciones operacionales:
Ordenar la percepción.
Valorar lo percibido.
Guiar la acción individual.
Facilitar la comunicación.
Requisitos de los conceptos:
Ha de existir acuerdo y continuidad en la atribución de determinados contenidos figurativos o
determinadas palabras.
Deben estar definidos con precisión: contenido semántico exactamente establecido.
Tienen que tener una referencia empírica: deben referirse a algo aprehensible, observable
(aunque sea indirectamente).
Reglas para definir.
La función de la definición consiste en presentar los rasgos principales de la estructura de un concepto para hacerlo más preciso, delimitándolo de otros conceptos, a fin de hacer posible una exploración sistemática del objetivo que representa. Para ello es necesario tener en cuenta:
Validez significa que nuestra definición se ajusta alconcepto. Debe referise justamente a ese concepto y no a algo similar. Si nuestra definición es válida, estamos midiendo justamente lo que pretendemos medir y no otra cosa.
Fiabilidad o reproductibilidad significa que si repetimos nuestra medición o registro, el resultado será siempre el mismo.
Dar la esencia. La definición debe dar la esencia de lo que se intenta definir, es decir, su naturaleza, sus notas características, sus límites.
Evitar tautologías.No debe directa o indirectamente contener el objetivo. Ejemplo: la economía es la ciencia que estudia los fenómenos económicos. No debe ser circular. Es decir,
se debe evitar,  definir al entendimiento como la capacidad de pensar y, a su vez, a la capacidad de pensar como a la actividad de entendimiento. Un círculo vicioso consiste en
dos (o más) definiciones nominales que se refieren la una a la otra mientras que los conceptos usados en estas definiciones no tienen definición real para vincularlos a la empiria.
Debe ser afirmativa.Toda definición debe expresarse siempre en términos afirmativos, nunca en términos negativos.
Empleo de lenguaje claro.Debe expresarse en palabras claras y asequibles, no debe contener metáforas o figuras literarias.
Significado preciso y unitario.

¿Pueden modificarse las definiciones cuando el trabajo avanza? Sí, de hecho en investigación cualitativa es habitual, porque la comprensión por parte del investigador de lo que está estudiando muchas veces se hace más profunda cuando la investigación avanza. Por otro lado, si las definiciones que han servido como base para mediciones cuantitativas se cambian después de reunir datos empíricos, se han desperdiciado los datos correspondientes a la vieja definición que se habían reunido.
Esquema de la investigación.
Es la estructura que permite ubicar el objeto de la investigación en el marco que lo comprende y analizar las partes de que consta.
Se formula para:
Apreciar el objeto de estudio de forma total y en cada una de sus partes.
Estructurar el escrito.
Organizar el acopio de información.
Planear nuestras actividades.
En el modelo que sigue se tratan los aspectos generales de una investigación.
El trabajo será más fácil si se desglosan al máximo el objeto de estudio y los aspectos de la
investigación.
PREGUNTAS ORIENTADORAS  CONCEPTO
¿Qué conceptos vamos a utilizar?
¿Qué criterios usaremos?
Definiciones.
¿Cuál es nuestra concepción del tema?
Consisten en la precisión de los conceptos, acepciones o criterios que vamos a utilizar.
Condiciones históricas que rodean el objeto de estudio.
Marco histórico.
Consideración de los factores externos que tienen relación con el objeto de la investigación.
Comprende el estado o hechos que prevalecen en el ambiente en que se presenta el objeto de estudio.
Constituye el contexto histórico de la investigación.
¿Cuál es el origen del objeto de la investigación?
¿Qué evolución ha tenido?
Antecedentes.
¿Qué otras investigaciones similares se han hecho?
Son el origen y el desarrollo del objeto de estudio.
Conocer la evolución de lo  que estamos investigando nos facilita su comprensión.
¿Cómo es el área que comprende?
¿Cómo se manifiesta?  Ubicación del objeto de estudio.
¿Qué relación guardan entre sí las partes del área?
Es la situación del objeto de la investigación en la disciplina, materia o especie que lo comprende.
¿Cómo es el objeto de estudio?
¿Cuáles son sus partes?
¿Qué relación existe entre el objeto y su contexto?
¿Cuáles y cómo son sus características intrínsecas?
¿Qué efectos produce?
¿En qué períodos se encuentra el fenómeno?
¿Qué aspectos coordinados y subordinados presenta?
Descripción del objeto de investigación.
¿Qué circunstancias condicionan al objeto de la investigación?
Éticas.
Geográficas
Económicas
Ecológicas
Tecnológicas
Teóricas
Culturales
Religiosas

Filosóficas 
¿Qué tesis existen al respecto?
Marco teórico.
¿Qué teorías tratan de explicarlo?
¿Cuál es la teoría clásica?
¿Cuáles son las teorías opuestas a la clásica?
¿Cuál es la teoría predominante?
Es la consideración de lo que se ha investigado (teorías, hipótesis, tesis) acerca del objeto de nuestra investigación.
Exposición de datos.
Descripción y/o provocación del fenómeno. Aquí se muestra la información, directamente relacionada con la hipótesis, obtenida de la investigación.
Valoración e interpretación del material obtenido.
Es el análisis crítico de los datos obtenidos.
Resumen.
Es la parte del escrito que tiene como finalidad mostrar en qué se sustentan las conclusiones que se obtuvieron.
Conclusiones y/o recomendaciones. Es el resultado de la  investigación.
EL PROBLEMA DE LA CAUSALIDAD
Una de las mayores preocupaciones de todo científico se refiere a las causas que originan los fenómenos. Encontrar las causas, las razones que producen determinados hechos
es encontrar una explicación para los mismos.  La relación causal o relación causa-efecto se presenta en las ciencias naturales.

En el área de las ciencias humanas, los fenómenos ocurren en un marco muy complejo de variables interrelacionadas de tal modo que, al acontecer el fenómeno en estudio, no sólo percibimos la presencia de una, dos o tres variables, sino de una multiplicidad de ellas, que a su vez que modifican en influencia entre sí.
Muchas veces se habla del carácter histórico, irrepetible, de todos los acontecimientos humanos, pretendiendo que es imposible abstraer, a partir de ellos,leyes generales. Éste es un argumento poco sólido pues, en esencia, los hechos físicos son también irrepetibles. Si fundimos una barra de hierro, ese hecho, en sí mismo, es también único, ya que podemos volver a hacer esa misma operación con otro trozo de metal o con el mismo trozo después de un tiempo, pero se tratará de hechos muy similares, casi idénticos, pero nunca el mismo hecho.


La relación de causa ha sido suplantada por el concepto más abierto de determinación. Decir que A determina a B significa tan sólo expresar que ejerce una influencia, que es capaz de alterar o modificar el comportamiento de B. No diríamos así que A es causa de B - por cuanto B puede estar determinado además por muchos otros elementos -, sino que A lo determina en alguna medida que es preciso evaluar.

Tipos de determinación:
Condiciones necesarias: son aquellas sin las cuales es imposible que ocurra un determinado fenómeno, aunque esto no quiere decir que cada vez que se encuentre ocurra el fenómeno. Por ejemplo, para que en un país se produzca un golpe militar es condición necesaria que exista un ejército organizado. Pero esto no quiere decir que, habiendo un ejército organizado, esto provoque un golpe militar.
Condiciones suficientes: se refieren a circunstancias que, siempre que aparecen, desencadenan el fenómeno en estudio, aunque no es necesario que ellas estén presentes para producirlo. Por ejemplo, es condición suficiente para producir la muerte, que se paralice durante un cierto período el funcionamiento del corazón, pero el deceso de una persona puede producirse por muchas otras razones.
Condiciones contribuyentes: son aquellas que favorecen de una manera decisiva el suceso investigado y que generalmente suelen producirlo, aunque no alcancen un determinismo que pueda considerarse como necesario o suficiente. Por ejemplo: tanto el riego como la radiación solar contribuyen al crecimiento de los vegetales, pero lo hacen de modo diverso según la especie considerada.
Condiciones contingentes: son circunstancias que, pudiendo favorecer la ocurrencia del hecho estudiado, se presentan sólo eventualmente, pudiendo estar por completo ausentes en la mayoría de los casos. El embargo petrolero decretado por los países árabes en 1973 fue una contingencia que redujo la oferta de ese producto, promoviendo un aumento notable de los precios, pero la disminución en la oferta de los bienes se produce normalmente por muchas otras circunstancias.
Solamente en aquellos casos en que se pueda sostener que una condición es a la vez necesaria y suficientes, podemos decir que estamos en presencia de la causa de un hecho.
LAS VARIABLES
Una vez que alcanzamos un conocimiento relativamente amplio del tema que se va a investigar, debemos dedicarnos a aislar, dentro del problema, los factores más importantes
que en él intervienen.
Por ejemplo: si se trata de un problema de comercialización, los aspectos fundamentales que deberemos estudiar serán la oferta y la demanda, las motivaciones del consumidor, la
distribución, la publicidad y otros factores semejantes.


Una variable es cualquier característica o cualidad de la realidad que es susceptible de asumir diferentes valores, ya sea cuantitativa o cualitativamente.
Es decir, que puede variar. Aunque para un objeto determinado pueda tener un valor fijo. Por ejemplo: una mesa; no puede ser, en sí, una variable. Pero, si nos referimos a la altura de una mesa, estamos en presencia de una variable.
El tiempo es siempre considerado una variable.
También podemos decir que una variable es todo aquello que vamos a medir, controlar y estudiar en una investigación o estudio.
Las variables pueden ser definidas conceptual y operacionalmente.
Clases de variables:
Cualitativas. Sobre ellas no se construye una serie numérica. Por ejemplo: colores.
Cuantitativas. Admiten una escala numérica de medición.
Todos los valores que llega a tener una variable pueden entenderse como una serie, una sucesión más o menos ordenada de posibilidades:
Continuas. Cuando entre uno y otro valor existen infinitas posibilidades intermedias. Por ejemplo: la altura de una persona, el peso de un objeto, el rendimiento de un estudiante.
Discretas. Cuando estas posiciones intermedias carecen de sentido, pues la variable se modifica de "a saltos" entre un valor y otro, y no en forma paulatina. Por ejemplo: la cantidad de hijos que puede tener una persona, el número de países que intervienen en una conferencia.

Otra clasificación:
Categóricas. Tienen la característica de que todos los miembros de una categoría se consideran iguales en lo que se refiere a esa variable. Por ejemplo: las mujeres.
Medidas. Se pueden asignar numerales a las personas u objetos en base a que poseen cantidades de alguna característica o propiedad.
Experimentales o manipuladas. Cuando los  investigadores establecen condiciones experimentales, crean o producen variables.
Variables y dimensiones.
En la práctica, muchas de las características que nos interesan estudiar no son tan simples...
Resulta muy sencillo medir y comparar la variable "cantidad de hijos que posee una persona", pero nos enfrentamos con una dificultad mayor si pretendemos conocer el "rendimiento de un estudiante".

Dimensión es un componente significativo de una variable, que posee una relativa autonomía. Así, el patriarcalismo de una sociedad es una síntesis de un cierto tipo de organización familiar, determinados valores individuales y pautas definidas de organización económica. Un ejemplo más simple: el tamaño de un objeto está determinado por su altura, largo y ancho.
Cuando hablamos de "relativa autonomía", hacemos referencia a que las dimensiones pueden presentar diferentes valores unas de otras, pero siempre dentro de ciertos límites de
congruencia.
Una misma cualidad puede considerarse como una variable en sí o como una dimensión de una variable mayor, según el enfoque y los propósitos que guíen cada investigación, pues se trata de definiciones de carácter instrumental que el científico realiza de acuerdo con la naturaleza del problema planteado.


Cada una de las variables y dimensiones que hemos aislado debe ser definida con la mayor rigurosidad posible, asignándole un sentido unívoco y claro para evitar que se originen
ambigüedades, distorsiones e innecesarias discusiones sobre la terminología.
Relaciones entre variables.
Luego de haber precisado los factores que intervienen en un problema, de haberlos definido y analizado hasta determinar el tipo de condicionamiento que los une, habremos obtenido un conjunto de variables relacionadas entre sí de una cierta manera. Debemos entonces organizar estas relaciones observadas de modo tal que podamos construir un esquema coherente que exprese el cuadro general del problema.
Una variable independiente es aquella que, dentro de la relación establecida, no depende de ninguna otra, aunque pudiera estar dependiente si estudiáramos otro problema. Son las condiciones manipuladas por el investigador a fin de producir ciertos efectos. Una variable dependiente es aquella cuyos valores dependen de los que asuma otra variable.

Una variable es interviniente cuando resulta un factor que interviene entre dos variables modificando o alterando con su propio contenido las relaciones que existen entre esos dos
elementos. Por ejemplo:
Variable A: alimentación que se recibe enla infancia (variable independiente).
Variable B: nivel de inteligencia posterior de la persona (variable dependiente).
Variable C: nivel socio - económico (variable interviniente que influye a A).

Es normal que una variable no sólo afecte a otra más, sino a varias simultáneamente, así como que una variable dependiente sea influida por dos, tres o más variables independientes.
Además de estas tres posiciones básicas que las variables pueden adoptar al relacionarse entre sí, existe una cuarta posibilidad que se refiere a las dos características del universo que ejercen una influencia de tipo difuso y general sobre todo el conjunto de los hechos considerados. Las variables contextuales indican el ámbito general donde se desarrollan los fenómenos que se estudian. Por ejemplo: los valores presentes en una sociedad, el tipo de estructura económica.
La variable antecedente es la que se supone como "antecedente" de otra. Ejemplo: para realizar el aprendizaje se supone un grado mínimo de inteligencia. Por lo tanto, la variable
inteligencia es antecedente de la variable aprendizaje.


EL DISEÑO DE LA INVESTIGACIÓN
El diseño es una estrategia general de trabajo que el investigador determina una vez que ya alcanzado suficiente claridad respecto a su problema y que orienta y esclarece las
etapas que habrán de realizarse posteriormente.
Si nuestra investigación teórica nos lleva a suponer que la esquizofrenia tiene un origen orgánico, tendremos que elaborar un método para poder comprobar si tal afirmación se corresponde o no con la realidad. Definir qué pruebas de laboratorio, qué observaciones y qué datos son los pertinentes para llegar a esa comprobación, es lo que
llamamos elaborar un diseño. Es el momento metodológico de la investigación; en él, ya no se trata de definir quévamos a investigar, sino cómo vamos a hacerlo.
Realizar el diseño de una investigación significa llevar a la práctica los postulados generales  del método científico, planificando una serie de actividades sucesivas y organizadas donde se encuentran las pruebas que se han de efectuar y las técnicas que se van a utilizar para recolectar y analizar los datos.
Tipos de diseño.
En función del tipo de datosque han de ser recogidos, e posiblecategorizar los diseños en dos
grandes tipos básicos:
Diseños bibliográficos.
Diseños de campo:
Experimental.
Post – facto.
Encuesta.
Panel.
Estudio de casos.
Los diseños de campo se refieren a los métodos empleados cuando los datos de interés se recogen en forma directa de la  realidad, mediante el  trabajo concreto del investigador y su equipo; estos datos son llamados  datos primarios. Son datos de primera mano, originales, producto de la investigación en curso sin intermediación de ninguna naturaleza. Cuando los datos ya han sido recolectados en otras investigaciones y son conocidos mediante los informes correspondientes, nos referimos a datos secundarios, porque han sido obtenidos por otros y nos llegan elaborados y procesados de acuerdo con los fines de quienes inicialmente los obtuvieron y manipularon.
Todo trabajo bibliográfico no deja por eso de referirse a la experiencia empírica tanto como los diseños de campo, porque los datos que nosotros tomamos como secundarios han sido
datos primarios para el investigador inicial,por más que nos lleguen como experiencias ya analizadas y sintetizadas. 

Los diseños de campo tampoco pueden basarse exclusivamente en datos primarios. Siempre será necesario ubicar e integrar nuestro problema y nuestros resultados dentro de un conjunto mayor (marco teórico o referencial), para cuya elaboración es imprescindible realizar consultas o estudios bibliográficos.
DISEÑOS BIBLIOGRÁFICOS:
El principal beneficio que el investigador obtiene mediante una investigación bibliográfica es que puede cubrir una amplia gama de fenómenos, ya que no sólo tiene que basarse en los cuales él mismo tiene acceso, puede extenderse para abarcar una experiencia mayor. Esta ventaja se hace valiosa cuando el problema requiere de datos dispersos en el espacio, que sería imposible obtener de otra manera: un investigador no puede ir recorriendo el planeta en busca de datos de producción o población para luego hacer análisis comparativos; pero si tiene a su alcance una bibliografía adecuada no tendrá obstáculos para contar con toda la información necesaria.

El diseño bibliográfico tiene una dificultad que puede ser muy significativa: si nuestras fuentes han recogido o procesado defectuosamente su material primario, todo nuestro trabajo habrá de apoyarse sobre bases falsas, sobre una serie de errores que nosotros trasladaremos y amplificaremos.  Para reducir este margen de incertidumbre, hay que asegurarse de las condiciones concretas en que han sido obtenidos los datos, estudiar cada información para descubrir incoherencias y contradicciones, utilizar a la vez varias fuentes distintas, cotejándolas cuidadosamente y regirse por una sana dosis de escepticismo.  Todos estos recursos permiten incrementar nuestro margen de confianza hasta niveles razonables.  Otra observación metodológica que puede hacerse con respecto a este diseño es que, debido a que el investigador define y selecciona los datos que va a utilizar, es posible que tome solamente en cuenta aquellos que concuerdan con sus hipótesis iniciales.


Algunas de las tareas básicas a realizar para el manejo de la información bibliográfica es: Conocer y explorar todo el conjunto de fuentes que pueden resultar de utilidad. Para esto hay que acudir a bibliotecas y centros de documentación. Hay que consultar a expertos y especialistas que pueden tener conocimiento del material existente. Todo libro o trabajo serio incluye generalmente una serie de citas, referencias bibliográficas y listas de material consultado que facilitan nuestros propósitos.

Recolección de datos.Se puede realizar mediante ficha y otros procedimientos similares. De cada fuente se extraerán los aspectos concretos que parezcan relevantes para la investigación. Elaboración de un esquema de exposición del informe final.

Cotejo o comparación de fichas. Se observan los puntos de contacto y oposición entre ellas, tratando de evaluar la confiabilidad de la información, para realizar síntesis parciales y comparaciones particulares.
Conclusiones.Se reelaborarán nuestros puntos de vista respecto a cada parte del estudio, teniendo especial cuidado en esclarecer la  problemática que previamente nos habíamos planteado en la fase inicial de la investigación.
Diseños de campo.
Le permiten al investigador cerciorarse de las verdaderas condiciones en que se han conseguido los datos, haciendo posible su revisión o modificación en el caso de que surjan dudas con respecto a su calidad. Noobstante, presentan la limitación de su reducido alcance: son muchos los datos que no se pueden alcanzar por esta vía, ya sea por restricciones espaciales o temporales, por carencia de recursos, etc.
Los diseños de campo más frecuentes son el experimental, post – facto, encuesta, panel y estudio de casos.
Diseño experimental.
Un experimento consiste en someter al objeto de estudio a la influencia de ciertas variables, en condiciones controladas y conocidas por el investigador, para observar los resultados que cada variable produce en el objeto. La variable a cuya influencia se somete el objeto en estudio recibe el nombre de estímulo. Cuando a través de un experimento se pretende llegar a la causa de un fenómeno, se procede
del siguiente modo: sea Z el fenómeno en estudio, que en condiciones no experimentales se presenta frente a los factores A, B y C. Nuestra primera prueba consiste en controlar - reduciendo a un valor 0 - cada uno de estos factores, para observar qué ocurre en los restantes.


Cuando nuestros objetos de estudio son barras de metal, moléculas, virus o ratas, no tenemos prácticamente ninguna limitación en cuanto a las posibilidades de inventar estímulos diversos. Las limitaciones de la experimentación en el campo de las ciencias sociales hacen que este método sólo pueda usarse en contados casos, pues diversas consideraciones éticas y humanas impiden su realización.
Si quisiéramos conocer los efectos que la desnutrición aguda ejerce sobre la agresividad de los grupos humanos, deberíamos buscar otras formas de comprobación ajenas al experimento, pues no podemos aplicar el estímulo "desnutrición aguda" a un conjunto humano.

El diseño experimental sólo se utiliza en las ciencias humanas para algunos problemas de psicología social (estudios para medir actitudes, influencia de la propaganda, tipos de liderazgo, etc.), de sociología del trabajo ( cambio de condiciones de producción, tipos de organización laboral), de técnicas pedagógicas (nuevas formas de enseñanza o modalidades de aprendizaje) y en otros casos semejantes, como el estudio de mercados, problemas clínicos de psicología, etc.
Existen diversos patrones según los cuales se realizan los experimentos en las ciencias sociales:
Antes y después con un solo grupo. El objeto en estudio queda constituido por un grupo social, generalmente reducido, previamente  definido en cuanto a sus características fundamentales. Supongamos que nos interesa medir el efecto de la iluminación sobre la productividad de los trabajadores. Para ello, tomaríamos un grupo de trabajadores que estén realizando sus tareas con una iluminación determinada y mediríamos (antes del experimento) su productividad. Luego introduciríamos el estímulo, en este caso una mejor iluminación, para después volver a medir la productividad del grupo.
Solamente después con dos grupos. Debemos construir dos grupos, que se denominan grupo experimental(destinado a recibir el estímulo) y grupo de control(que nos sirve de punto de referencia para apreciar las variaciones que se produzcan en el anterior). Como es necesario efectuar las mediciones comparando los resultados entre los dos grupos, éstos deben ser, en todas las características de relevancia que sea posible controlar, lo más semejantes posibles. Esta tarea de igualación de los grupos se denomina homogeneización, y para llevarla a cabo se apela a procedimientos de muestreo. No se realizan mediciones antes de la aplicación del estímulo: se aplica éste solamente al grupo experimental y se mide finalmente a ambos grupos.
Antes y después con un grupo de control. Se basa en los mismos principios que el método anterior, pero las mediciones se hacen antes y después del estímulo, a ambos grupos. Esto nos previene contra los posibles defectos de la igualación y nos permite también tener en cuenta la influencia de cualquier situación que pueda originar variaciones simultáneas en ambos grupos y que de otro modo no detectaríamos.

Experimentos post - facto.
Experimento post - facto quiere decir experimento que se realiza después de los hechos.No se trata de un verdadero experimento, porque el investigador no controla ni regula las condiciones de prueba. Pero el procedimiento lógico de que se vale es idéntico al de los experimentos propiamente dichos. Consiste en tomar como experimentales situaciones reales que se hayan producido espontáneamente, trabajando sobre ellas como si efectivamente se hubieran dado bajo nuestro control.


Encuestas.
Este diseño es exclusivo de las ciencias sociales y parte de la premisa de que, si queremos  conocer algo sobre el comportamiento de las personas, lo mejor, lo más directo y simple, es preguntárselo a ellas.
Se trata de requerir información a un grupo socialmente significativo de personas acerca de los problemas en estudio para luego, mediante un análisis de tipo cuantitativo, sacar las conclusiones que correspondan con los datos recogidos.
Cuando se recaba información a todas las personas que están involucradas en el problema en estudio, este diseño toma el nombre de censo. Los censos, por las dificultades materiales que implican su realización, casi siempre son trabajos emprendidos por el Estado o por instituciones de muchos recursos. Por la cantidad de personas que se deben entrevistar, no es factible obtener información muy detallada, pues se convertirían en trabajos desproporcionadamente difíciles de ejecutar y analizar.

Una encuesta es sólo uno de los métodos posibles de estudio de la realidad social, que presenta puntos a favor y en contra.
Sus principales ventajas son:
Su conocimiento de la realidad es primario, no mediado, y por lo tanto, menos engañoso. Como es posible agrupar los datos en forma de cuadros estadísticos, se hace más accesible la
medición de las variables.
Es un método de trabajo relativamente económico y rápido.
Las desventajas más frecuentes son:
La encuesta recoge la visión que la gente tiene de sí misma: no es lo mismo lo que la gente hace, siente o cree, que lo que la gente "dice" que hace, siente o cree. Existen algunos recursos para reducir la magnitud de este serio problema, como omitir algunas preguntas que sabemos que las personas no quieren responder, cuidar la presentación del entrevistador, etc.
La encuesta relata los hechos sociales desde el punto de vista de sus actores, pero no considera las relaciones sociales interpersonales o institucionales.

El tratamiento de la información es estadístico. Esto puede resultar muy democrático y útil, pero casi nunca se corresponde con la realidad de los hechos sociales, donde el liderazgo y la asimetría social son la norma.

El panel.
Surge como respuesta al panorama estático que ofrecen las encuestas y pretende superar esta dificultad a través de la repetición de mediciones normalizadas.  Se llama panel a toda sucesión de mediciones que se hacen en condiciones regulares y que se aplica a determinar los valores de una variable, para un cierto objeto. Es una forma de presentación secuencial de datos de cualquier tipo, que tiene la ventaja de proporcionarnos información acerca de sus variaciones en el tiempo.
Es esencial que las mediciones se realicen siempre bajo las mismas condiciones, empleando para todos los casos un mismo instrumento de recolección de datos. Esto permite la exacta comparación de los resultados y posibilita hacer un análisis de tendencias.

Se utiliza para reflejar el crecimiento de la población urbana y rural, o la aceptación de un candidato.
Un panel es algo así como una encuesta repetida: un mismo cuestionario que se administra a una misma muestra para observar la evolución y las modificaciones de las respuestas. Las
encuestas deben realizarse en lapsos prefijados y regulares.
Una dificultad que presenta este diseño es lo que se denomina mortandad del panel, que consiste en la progresiva reducción de la muestra por diversas causas: traslados, fatiga y otros problemas. Al reducirse el número de entrevistados, el error muestral aumenta progresivamente.
Otro problema es la saturación del panel, que consiste en una actitud de rechazo progresivo por parte de los entrevistados. Después de ser sometida varias veces a las mismas preguntas, la gente empieza a cansarse de ellas: surgen respuestas estereotipadas, de mala voluntad, hay apresuramiento para responder y otros problemas similares que aumentan sensiblemente los errores. 

Estudios de casos.
Es el estudio profundizado y exhaustivo de uno o muy pocos objetos de investigación, lo que permite obtener un conocimiento amplio y detallado de los mismos. Se basa en la idea de que, si estudiamos con atención cualquier unidad de un cierto universo, estaremos en condiciones de conocer algunos aspectos generales del mismo; por lo menos, tendremos una perspectiva, una reseña general que orientará una búsqueda posterior.
.
La mayor limitación de este tipo de investigación es la absoluta imposibilidad de generalizar o extender a todo el universo los hallazgos obtenidos. Su principal ventaja es su relativa simplicidad y economía.
La utilidad de los estudios de casos es mayor cuando se trata de investigaciones exploratorias o para las fases iniciales de una investigación sobre temas más complejos, para formular hipótesis o reconocer cuáles son las principales variables involucradas en un problema.

Para seleccionar los casos de interés conviene seguir ciertos criterios:
Buscar casos típicos: aquellos objetos que parecen ser la mejor expresión del tipo ideal.
Seleccionar casos extremos. Así, podríamos considerar una universidad muy antigua y otra de reciente creación.
La ventaja de utilizar casos extremos reside en que, de este modo, probablemente, podamos tener una idea de los límites dentro de los cuales nuestras variables pueden oscilar.

EL DISEÑO CONCRETO DE LA INVESTIGACIÓN.
Lo importante no es conocer toda la lista de posibles diseños, sino apelar al razonamiento lógico y a la experiencia para determinar, antes de recolectar los datos, qué información nos proporcionará un determinado método y qué relevancia y confiabilidad puede asignársele a la misma.
LA RESEÑA DE PROCEDIMIENTOS Y EL PROYECTO DE INVESTIGACIÓN.
Una vez seleccionado el diseño concreto que se va a utilizar en la investigación, se hace necesario poner en claro las formas específicas que éste habrá de adoptar, definiendo las operaciones concretas para llevarla a cabo. A esta actividad la denominamos reseña de procedimientos, y para realizarla es preciso detallar:
Las variables que se deben medir y su relación con las otras variables que intervienen.
Los esquemas lógicos de comprobación y la interpretación que puede dárseles a los diversos resultados posibles.
Los pasos necesarios para llevar a cabo el diseño de la investigación, ordenada y explícitamente.
Los recursos materiales y humanos necesarios.
Cualquier otro elemento de importancia para la demarcación de tareas: cronograma,  presupuesto, lista de actividades y materiales, formas de registro, etc.
La reseña de procedimientos debe ser completada con un esquema de presentación de la investigación, que será previo y provisional.
Debe constar, cuando existen datos que se van a procesar estadísticamente, el plan de cuadros que se presentarán y, en todos los casos, del esquema de capítulos o partes que se desarrollarán en el contenido del trabajo.


El proyecto de investigación es un documento que elabora el investigador para especificar las características de la indagación que va a realizar. Generalmente va antecedido de un anteproyecto, un documento similar pero menos preciso que se elabora al comenzar la investigación, apenas se hayan definido sus características principales.
En un anteproyecto deben exponerse las características del problema, su justificación, los objetivos de la investigación y (si las hubiere) las hipótesis a verificar. En un proyecto es preciso completar mucho más la información, profundizando y definiendo mejor lo tratado en el anteproyecto y agregándole lo relativo al diseño de la investigación, así como un marco teórico que haga comprensible el sentido de lo que se proyecta.
EL MUESTREO
Cuando un investigador realiza en ciencias sociales un experimento, una encuesta o cualquier tipo de estudio, trata de obtener conclusiones generales acerca de una población determinada. Para el estudio de ese grupo, tomará un sector, al que se conoce como muestra. Las poblaciones que el investigador puede estudiar son muy diversas, pero generalmente se relacionan con personas. Por ejemplo, puede estudiar la opinión de las amas de casa con respecto a ciertos métodos de planificación familiar, la edad promedio de los alumnos de una escuela, el coeficiente intelectual promedio de los universitarios, etc.

En ciencias sociales, las muestras no se obtienen tan fácilmente, puesto que los eventos se relacionan siempre con personas, las cuales son mucho menos estables en cuanto a sus pautas de actividades, valores, actitudes y conductas que algunos de los fenómenos que se estudian en las ciencias naturales.
El momento metodológico de la investigación está constituido por la definición y especificación del diseño que se va a utilizar y por la tarea de operacionalización de variables (convertir en operativos, en manejables, a los diversos elementos que intervienen en el problema que se va a investigar).
La operacionalización se refiere de dos tipos de elementos:
El universo, en tanto conjunto de unidades o fuentes de datos que es preciso reducir a proporciones manejables para poderlo explorar.
Las variables, en tanto conceptos abstractos a los que es preciso dar contenido concreto para poder efectuar sobre ellos las mediciones correspondientes.
La operacionalización del universo es la tarea de encontrar una forma de obtener información relevante sin necesidad de acudir a la medición de todo el universo posible de datos. Es el aspecto cuantitativo de la operacionalización y, para resolverlo, tendremos que apelar a la estadística, mediante técnicas de muestreo.
La relación que existe entre la operacionalización y el tipo de diseño se origina en que, de acuerdo con el método general que se va a utilizar (o sea, el diseño), se requerirá de uno u otro tipo de datos, operacionalizar de cierta manerao de otra. Inversamente, de acuerdo con las posibilidades concretas de operacionalizar en uno u otro sentido las variables y el universo considerado, será más o menos adecuado un cierto tipo de diseño.
Datos y unidades.
Un dato es cada uno de los elementos de información que se recoge durante el desarrollo de una investigación y en base a los cuales podrán extraerse conclusiones en relación con el problema inicial planteado.
Cualquier información, por más pequeña y fragmentaria que sea, puede considerarse como un dato, siempre y cuando pueda colaborar de algún modo a esclarecer los problemas que nos
planteamos en un estudio. Cuando agrupamos muchas informaciones de carácter similar, cada dato se hace valioso dentro de una perspectiva más amplia. Así, en nuestro ejemplo, si consultamos la opinión de muchas personas, podemos llegar a enunciar que un determinado tanto por ciento de ellas están en contra de los ensayos nucleares e integrar esa información, a su vez, en un estudio sobre las
opiniones de determinado conglomerado social.
Las fuentes de datos pueden ser personas, situaciones o hechos que se observan directamente, o materiales bibliográficos de diversa naturaleza. Las llamamos unidades de datos y, a su
conjunto, a la suma de todas las unidades, se le da el nombre de universo o población.

Existen universos que resultan demasiado amplios para el investigador, pues éste no tienen ni el tiempo ni los recursos para abordar el estudio de cada una de las unidades que lo componen
(el conjunto de ciudadanos de un país, la flora de una región o las innumerables galaxias). Para resolver este inconveniente, se acude a la operacionalización del universo mediante la
extracción de muestras.
Universo y muestra.
Una muestra es un conjunto de unidades, una porción del total, que nos representa la conducta del universo en su conjunto.
Una muestra, en un sentido amplio, no es más que eso, una parte del todo que llamamos universo y que sirve para representarlo.
Cuando una muestra  nos refleja en sus unidades lo que ocurre en el universo, la llamamos muestra representativa. Por lo tanto, una muestra representativa contiene las características relevantes
de la población en las mismas proporciones en que están incluidas en tal población. Sus conclusiones son susceptibles de ser generalizadas al conjunto del universo, aunque para ello debamos añadir un cierto margen de error en nuestras proyecciones.
Las muestras pueden ser clasificadas, en una primera división en probabilísticas y no probabilísticas.
En las muestras probabilísticas, la característica fundamental es que todo elemento del universo tiene una determinada probabilidad de integrar la muestra, y esa probabilidad puede ser calculada matemáticamente con precisión. En las muestras no probabilísticas ocurre lo contrario y el investigador no tiene idea del error que puede estar introduciendo en sus apreciaciones.
Las muestras no probabilísticas más usadas son:
Muestra accidental. Es aquella que se obtiene sin ningún plan preconcebido; las unidades elegidas resultan producto de circunstancias fortuitas. Si entrevistamos a los primeros 50 transeúntes que pasan por cierta calle o medimos la profundidad del mar a lo largo de un trayecto entre dos puntos cualesquiera, estaremos en presencia de una muestra accidental; los datos obtenidos podrán o no representar al universo en estudio. El investigador no puede saber hasta qué punto sus resultados podrán proyectarse, con confiabilidad, hacia el conjunto más amplio que desea conocer.
Muestra por cuotas. Consiste en predeterminar la cantidad de elementos de cada categoría que habrán de integrar la muestra. Así podemos asignar una cuota de 50 hombres y 50 mujeres a una muestra de 100 individuos, asumiendo que ésa es la distribución de la población total.
Muestra intencional. Las unidades se eligen en forma arbitraria, designando a cada unidad según características que para el investigador resulten de relevancia. Se emplea, por lo tanto, el conocimiento y la opinión personal para identificar aquellos elementos que deben ser incluidos en la muestra. Se basa, primordialmente, en la experiencia de alguien con la población. Estas muestras son muy útiles y se emplean frecuentemente en los estudios de caso, por más que la posibilidad de generalizar conclusiones a partir de ellas, sea en rigor nula. En algunas oportunidades se usan como guía o muestra tentativa para decidir cómo tomar una muestra aleatoria más adelante.
Muestras aleatorias.

En ellas cada uno de los elementos del universo tiene una probabilidad determinada y conocida de ser seleccionado. Los procedimientos más usuales para la obtención de muestras aleatorias son:
Azar simple. Este procedimiento se inicia confeccionando una lista de todas las unidades que configuran el universo, numerando correlativamente cada una de ellas. Luego, mediante
cualquier sistema (tabla de números al azar, programas de computación), se van sorteando al azar estos números hasta completar el total de unidades que deseamos que entren en la muestra. De este modo, la probabilidad que cada elemento tienen de aparecer en la muestra es exactamente la misma.

Azar sistemático. También se requiere de un listado completo de las unidades que integran el universo en estudio. Luego se efectúan las siguientes operaciones:
Se calcula la constante K, que resulta de dividir el número total de unidades que componen el universo por el número de unidades que habrán de integrar la muestra:
K = N/n
Donde:
N = número total de unidades que componen e universo.
n = número total de unidades que integrarán la muestra.
Se efectúa un sorteo para elegir un número que sea inferior o igual al valor de K. Como primera unidad para integrar la muestra se elige aquella que, en la lista general, posea idéntico número de orden al sorteado. Si designamos con A este primer valor, la segunda unidad elegida será la que lleve el número A + K,la tercera corresponderá a A + 2K y así sucesivamente hasta llegar a A + (n – 1)K.


Las ventajas y desventajas de este procedimiento son casi idénticas a la de las muestras al azar simple. Los procedimientos computacionales hacen mucho más fácil efectuar el sorteo de las
unidades y no existe el riesgo de que la muestra quede sesgada por algún tipo de regularidad que no conocemos y que esté presente en el universo.
Muestras por conglomerados. Esta técnica tiene utilidad cuando el universo que se requiere estudiar admite ser subdividido en universos menores de características similares a las del universo total. Se procede a subdividir el universo en un número finito de conglomerados y, entre ellos, se pasa a elegir algunos que serán los únicos que se investigarán; esta elección puede realizarse por el método del azar simple o por el del azar sistemático. Una vez cumplida esta etapa, puede efectuarse una segunda selección, dentro de cada uno de los conglomerados elegidos, para llegar a un número aún más reducido de unidades muestrales.
La técnica de conglomerados suele utilizarse cuando queremos extraer muestras de los habitantes de un conjunto geográfico amplio, por ejemplo, una gran ciudad o un conjunto de pueblos, por lo que se procede a tomar cada pueblo o grupo de manzanas como un conglomerado independiente; del mismo modo, se la utiliza  para conocer las reservas forestales y marinas, para estudiar las estrellas y otros casos semejantes.
Muestras estratificadas. Este método supone que el universo puede desagregarse en sub – conjuntos menores, homogéneos internamente pero heterogéneos entre sí. Cada uno de estos estratos se toma luego como un universo particular, de tamaño más reducido, y sobre él se seleccionan muestras según cualquiera de los procedimientos anteriores. Por ejemplo, si quisiéramos estudiar las actitudes políticas de los estudiantes de unauniversidad, podríamos subdividir en estratos de acuerdo con el tipo de estudios que cursen, suponiendo que estas actitudes van a ser diferentes entre quienes siguen Ingeniería, Letras, Medicina u otras carreras. Luego, efectuaríamos un muestreo dentro de cada sub – universo así definido para, finalmente, realizar un análisis integrando los resultados de todas las sub – muestras.

Tamaño de la muestra y error muestral.
Recordemos que la muestra descansa en el principio de que las partes representan al todo y, por tal, refleja las características que definen a la población de la cual fue extraída, lo cual nos indica que es representativa. Es decir, que para hacer una generalización exacta de una población, es necesario tomar una muestra representativa. Por lo tanto, la validez de la generalización depende de la validez y tamaño de la muestra.
Cuando trabajamos con muestras, generalmente se presentan dos tipos de errores:
Error sistemático. Llamado de distorsión o sesgo de la muestra, se presentan por causas ajenas a la muestra:
Situaciones inadecuadas: se presentan, por ejemplo, cuando el encuestador tiene dificultades para obtener la información y la sustituye por la que más fácilmente está a su alcance, que no siempre es la más confiable.
Insuficiencia en la recolección de datos: hay distorsión por falta de respuestas, o respuestas inadecuadas, ya sea por ignorancia o falta de datos relativosa los elementos incluidos.
Distorsiones del encuestador causadas por prejuicios, interés personal o por fallas en la aplicación de instrumentos.
Errores de cobertura a causa de que no se han incluido elementos importantes y significativos para la investigación que se realiza.
Error de muestreo o muestral. Cualquiera sea el procedimiento utilizado y la perfección del método empleado, la muestra diferirá de la población. A esta diferencia se la denomina error de muestreo.
Cuando una muestra es aleatoria o probabilística, es posible calcular sobre ella el error muestral. Este error indica el porcentaje de incertidumbre, es decir, el riesgo que se corre de que la muestra elegida no sea representativa.
A medida que incrementamos el tamaño de la muestra, el error muestral tiende a reducirse, pues la muestra va acercándose más al tamaño del universo. Del mismo modo, para una muestra determinada, su error será menor cuanto más pequeño sea el universo a partir del cual se la ha seleccionado. Así, para un universo de 10.000 casos, una muestra de 200 unidades tendrá un error mayor que una de 300; una muestra de 200 casos, por otra parte, tendrá un error mayor si el universo tiene 10.000 unidades que si éste posee solamente 2.000.
Para fijar el tamaño de la muestra adecuado a cada investigación, es preciso determinar el porcentaje de error que estamos dispuestos a admitir. Una vez hecho esto, deberán realizarse las operaciones estadísticas correspondientes para poder calcular el tamaño de la muestra que nos permite situarnos dentro del margen de error aceptado.

INDICADORES E ÍNDICES
Si estamos interesados en conocer los prejuicios raciales dentro de una población. deberíamos medir u observar la presencia de dichos prejuicios. Pero los prejuicios no son objetos que puedan medirse como otros hechos del mundo físico: sólo podemos conocerlos a través del modo en que se expresan o manifiestan en situaciones determinadas, a través de hechos o acciones que podemos interpretar como originados en los prejuicios raciales.
Estos hechos que se corresponden con los conceptos teóricos que nos interesan son los indicadores de las variables que intentamos medir: sus expresiones concretas, prácticas, medibles. El proceso de encontrar los indicadores que permiten conocer el comportamiento de las variables es lo que llamamos operacionalización. En nuestro ejemplo, los indicadores de los prejuicios raciales serán la existencia o no de matrimonios interraciales, la distribución de los empleos entre personas de las diferentes comunidades étnicas, las restricciones al uso de elementos comunitarios, las actitudes que se expresan en el trato cotidiano, giros o formas empleados en el lenguaje coloquial y en los medios de comunicación, etc.

Para operacionalizar una variable, es necesario partir de la definición teórica que ya se ha elaborado y, si se trata de una variable compleja, de las dimensiones en que puede descomponerse la misma. Luego, revisando los datos ya disponibles y analizando los conceptos en profundidad, podremos encontrar cierto conjunto de indicadores que expresen consistentemente el comportamiento de la variable estudiada, con lo que habremos llegado a la definición operacional de la misma.

La tarea de búsqueda y selección de indicadores es una tarea delicada, que exige mucho cuidado y que requiere experiencia suficiente. Sucede a veces que existen muchos indicadores posibles para una misma variable y resulta difícil encontrar cuáles son los más apropiados para describirla. En otros casos, los indicadores encontrados no son fáciles de medir y deben ser suplantados por otros menos confiables pero más asequibles a los medios disponibles por el investigador. En otras ocasiones, algunos de los indicadores sugeridos no miden exactamente la variable sino algún aspecto conexo o colateral, que en realidad posee menor relevancia.

Del mismo modo que las variables son susceptibles de ser operacionalizadas, a través de los indicadores correspondientes, las hipótesis elaboradas teóricamente como relaciones entre variables pueden también sufrir el mismo proceso. Para ello, se operacionalizan cada una de las variables que intervienen en la hipótesis, definiendo sus indicadores. Luego se procede a relacionar las definiciones operacionales de las variables entre sí, del mismo modo en que se hacía al formular la hipótesis general o teórica. Así se obtiene una hipótesis operacional, que puede ser directamente probada o refutada en la práctica.
Criterios a considerar para el uso de indicadores:
Se debe tener el menor número de indicadores de una variable, siempre y cuando éstos sean realmente representativos de la misma.
Se deben poseer formas de medición específicas para cada indicador.
Cada indicador posee sólo una relación de probabilidad con respecto a la variable, ya que en ciencias sociales es muy difícil saber con certeza cuándo un indicador representa una variable.
Escalas de medición.
La idea de medición es intrínsecamente comparativa. Medir algo es determinar cuántas veces una cierta unidad o patrón de medida cabe en el objeto medido. Para medir la longitud de un objeto físico, desplazamos una regla graduada sobre el mismo, observando cuántas unidades (en este caso, centímetros o metros) abarca ese objeto.

La medición de variables no físicas resulta, en esencia, un proceso idéntico al anterior. La dificultad reside en que las variables de este tipo no pueden medirse con escalas tan sencillas como las lineales y en que no existen para su comparación patrones de medida universalmente definidos y aceptados. Si deseamos medir el peso de un objeto, podremos expresar el valor del mismo en kilogramos o libras. En cambio, para medir el grado de autoritarismo de un dirigente, no existe ni una unidad ni una escala generalmente reconocidas, por lo que el investigador se ve obligado a elegir alguna escala de las que se han utilizado en otros trabajos o a construir una adaptada a sus necesidades específicas.

Puede decirse que una escala es un continuo de valores ordenados correlativamente, que admite un punto inicial y otro final. Si evaluamos el rendimiento académico de estudiantes, podemos asignar el valor cero al mínimo rendimiento imaginable al respecto. Al mayor rendimiento posible podemos atribuirle un valor 100, 20, 10 o 7 puntos, según resulte más práctico. Con estos dos valores tendríamos ya marcados los límites de nuestra escala.

Para que una escala pueda considerarse como capaz de aportar información objetiva, debe reunir los siguientes requisitos básicos:
Confiabilidad. Se refiere a su capacidad para discriminar entre un valor y otro. Cabe confiar en una escala cuando produzca constantemente los mismos resultados al aplicarla a una misma muestra, es decir, cuando siempre los mismos objetos aparezcan valorados en la misma forma.
Validez. Indica la capacidad de la escala para medir las cualidades para las cuales ha sido construida y no otras parecidas. Una escala confusa no puede tener validez; tampoco una escala que esté midiendo distintas variables superpuestas.

Clases de escalas.
Escalas nominales. Son aquellas en que sólo se manifiesta una equivalencia de categorías entre los diferentes puntos que asume la variable. Es como una simple lista de las diferentes posiciones que puede adoptar la variable, pero sin que en ella se defina algún tipo de orden o relación.Entre estos valores, no cabe obviamente ninguna jerarquía, no se puede trazar ningún ordenamiento. Sin embargo, a la enunciación explícita de todas esas posibilidades la consideramos como una escala, pues de algún modo es útil para medir el comportamiento de la variable.
Escalas ordinales. Distinguen los diferentes valores de la variable jerarquizándolos simplemente de acuerdo con un rango. Establecen que existe una gradación entre uno y otro valor de la escala, de tal modo que cualquiera de ellos es mayor que el precedente y menor que el que le sigue a continuación. Un ejemplo de escala ordinal es el que suele usarse para medir la variable "grado de escolaridad": podemos decir que una persona que ha tenido 2 años de instrucción escolar, ha recibido más instrucción que quien sólo tiene un año, y menos que quien posee 3. Sin embargo, no puede afirmarse válidamente que la diferencia entre quien posee 2 años de instrucción y quien ha recibido un año es igual a la diferencia entre quienes han recibido16 y 17 años de educación formal.
Escalas de intervalos iguales. Además de poseer la equivalencia de categorías y el ordenamiento interno entre ellas, tienen la característica de que la distancia entre sus intervalos está claramente determinada y que éstos son iguales entre sí. Un ejemplo típico de las escalas de intervalos iguales está dado por las escalas termométricas. Entre 23º y 24º C, por ejemplo, existe la misma diferencia que entre 45º y 46º C. La limitación que poseen es que no definen un cero absoluto, un valor límite que exprese realmente la ausencia completa de la cualidad medida.
Escalas de cocientes. Llamadas también de razones. En ellas se conservan también todas las propiedades de los casos anteriores, pero además se añade la existencia de un valor cero real, con lo que se hacen posibles ciertas operaciones matemáticas, tales como la obtención de proporciones y cocientes. Son escalas de cocientes las que miden la longitud, la masa, la intensidad de la corriente eléctrica y otras variables del mundo físico. Difícilmente las escalas que intervienen en las ciencias sociales son medidas con escalas de razones, ya que son contados los casos en que dichas variables pueden ser definidas con la exactitud y la precisión necesarias.
Características de las escalas de medición.
Sus intervalos deben ser mutuamente excluyentes. Cada dato recogido sólo puede pertenecer a una y sólo una de las categorías de la escala. Nunca se debe comenzar un intervalo con el mismo valor con que finaliza el anterior, porque aparecerán datos que pueden incluirse en cualquiera de ambos:
Edades: 1) de 20 a 25 años
2) de 25 a 30 años
Del mismo modo, deben evitarse las imprecisiones que produzcan el mismo fenómeno entre categorías verbales. Una escala donde se incluyen las siguientes posibilidades:
Música bailable
Música folclórica
Música clásica
Música moderna
No tiene categorías mutuamente excluyentes, pues hay música folclórica que es a la vez bailable, música clásica que es moderna o bailable, y varias otras posibilidades.


Los índices.

A través de cada indicador, se podrán obtener los datos pertinentes, que deberán ser llevados a escalas adecuadas para ordenarlos. Para cada indicador que utilicemos, será necesario adoptar o construir una escala que cuantifique las observaciones realizadas. Ésta podrá ser del tipo más simple – como la escala dicotómica "si/no", "0/1", de dos valores solamente – o más compleja, con varias posiciones posibles, lo que aumenta su sensibilidad o grado de discriminación frente a los fenómenos medidos.
De acuerdo con los datos obtenidos, evaluaremos en cada escala el comportamiento que sigue cada indicador. Pero esto no nos permite todavía medir claramente la variable, pues nos entrega información fragmentaria, que debe ser integrada o sintetizada para llegar a un valor único, que exprese lo que en realidad ocurre con la variable. Para lograrlo, debemos sumar ponderadamente los valores de los indicadores, obteniendo un valor total que se denomina índice, y que es el que nos dará lainformación relevante sobre el problema en estudio.
Analicemos un ejemplo.
Variable a medir: "exposición a los medios de comunicación masivos".
Definición operacional: intensidad del contacto que un individuo grupo posee con los medios masivos de comunicación.
Indicadores: como existen varios medios importantes de comunicación, se referirán al grado de exposición con respecto a cada uno de los medios. Después de un análisis del problema, el investigador llega a la conclusión de que los principales medios son: cine, radio, televisión y periódicos. Existen otros medios que también podrían ser incluidos, como la propaganda mural y las revistas, pero se decide dejarlos de lado porque parecen de menor importancia. Designados estos cuatro medios de comunicación, habrá que especificar los indicadores. Así, tendríamos:
Para el cine: frecuencia mensual de asistencia.
Para la radio: promedio de horas semanales en que se escucha.
Para la TV: promedio de horas semanales en que se ve.
Para los periódicos:promedio semanal de periódicos leídos.
La razón de preferir estos indicadores sobre otros posibles surge de que cumplen con la condición de ser perfectamente factibles de medir y de que, según la experiencia, parecen ser los que mejor configuran la conducta respecto a cada caso. Ahora deberemos construir una escala que resulte útil para medir cada indicador.
Tomemos el caso del cine. Podríamos discriminar tres posiciones: la de quienes no están expuestos para nada a la influencia del medio, la de quienes reciben una exposición media y la de quienes reciben un alto grado de influencia. Estas tres conductas deben ser traducidas a conductas definidas cuantitativamente, buscando un equivalente entre los conceptos mencionados y las conductas correspondientes. Para concluir, es necesario buscar una equivalencia numérica dentro de la escala mencionada.
Conceptos  Conductas  Valores escalares
Exposición baja  Va menos de una vez al mes  0
Exposición media  Va de una a cuatro veces al mes 1
Exposición alta  Va más de cuatro veces al mes 2

Para cada uno de los diferentes medios de comunicación, tendremos que realizar una tarea semejante:
PARA LA RADIO
Conceptos  conductas  Valores escalares
No está expuesto (no escucha radio) Menos de una hora semanal  0
Exposición débil (escucha esporádicamente) De 1 a 3 horas semanales  1
Exposición media (escucha regularmente) Más de 3 horas y menos de 10 horas semanales 2
Exposición alta (escucha frecuentemente) Más de 10 horas semanales  3
Y así sucesivamente para los otros dos medios de comunicación.

Tenemos ahora cuatro escalas, una para cada indicador, que son capaces de discriminarnos las conductas de los individuos de acuerdo con situaciones típicas, señaladas por los conceptos teóricos. Para llegar al índice, que es el verdadero valor que nos ilustra acerca de la variable, será preciso hacer dos operaciones más:
Igualar las escalas entre sí
Ponderar los indicadores.
Para igualar las escalas conviene tomar un valor único, con el que haremos coincidir el máximo de cada una de ellas. El valor 100 es muy usado en estos casos por su practicidad.
Entonces, la escala de exposición al cine, que tenía un máximo de 2 puntos, tendrá ahora un máximo de 100; su mínimo seguirá siendo elvalor 0. El punto intermedio hallado será de 50 en la escala.

El segundo paso, la ponderación de indicadores, parte del hecho de que la influencia de cada medio de comunicación sobre la población es muy diferente. Es decir que la influencia de la exposición a la TV es mayor que la que proporciona la radio, por ejemplo, porque se trata de un medio no sólo auditivo sino también visual. Ponderar significa pesar la influencia relativa que cada indicador tiene con respecto a la variable tomada en su conjunto. Para hacerlo, otorgaremos valores numéricos a los indicadores, de modo tal que reflejen la relación que existe entre ellos, dando a los indicadores más importantes valores mayores que a los menos importantes. Podríamos asignar los siguientes valores relativos, que llamaremos coeficientes de ponderación:
Para la TV  10
Para los periódicos  7
Para la radio  4
Para el cine  3

El índice ponderado nos está expresando que, para la persona o promedio de personas considerados, existe un grado de exposición de 68,2 sobre un máximo posible de 100 y un mínimo posible de 0 puntos. Este valor, dado que la escala va de 0 a 100, puede traducirse a porcentajes, diciendo que la exposición a los medios de comunicación masivos es, para este caso, de un 68% del máximo posible.
Finalmente, podemos decir que un índice no es otra cosa que la combinación de valores obtenidos por un individuo o elemento en cada uno de los indicadores propuestos para medir la variable.

RECOLECCIÓN DE LOS DATOS
Indicadores, técnicas e instrumentos.
Una vez obtenidos los indicadores de los elementos teóricos y definido el diseño de la investigación, será necesario definir las técnicas de recolección de datos para construir los instrumentos que nos ermitan obtenerlos de la realidad. Un instrumento de recolección de datos es cualquier recurso de que se vale el investigador para acercarse a los fenómenos y extraer de ellos información.
Dentro de cada instrumento pueden distinguirse dos aspectos:
La forma: se refiere a las técnicas que utilizamos para la tarea de aproximación a la realidad (observación, entrevista).
El contenido: queda expresado en la especificación de los datos que necesitamos conseguir. Se concreta en una serie de ítems que no son otra cosa que los indicadores que permiten medir a las variables, pero que asuman ahora la forma de preguntas, puntos a observar, elementos para registrar, etc.
El instrumento sintetiza en sí toda la labor previa de investigación: resume los aportes del marco teórico al seleccionar datos que corresponden a los indicadores y, por lo tanto, a las variables y conceptos utilizados; pero también sintetiza el diseño concreto elegido para el trabajo.
Mediante una adecuada construcción de los instrumentos de recolección, la investigación alcanza la necesaria correspondencia entre teoría y hechos.
¿Qué ocurre si en una investigación los instrumentos son defectuosos?
Se producirán algunas de las siguientes dificultades:
Los datos recogidos no servirán para satisfacer los interrogantes iniciales;
No se podrán obtener los datos que necesitamos,
Los datos vendrán falseados o distorsionados.
En estos casos, habrá uno o varios errores en las etapas anteriores del proceso de investigación. Será necesario, entonces, volver hacia atrás y revisar las diferentes etapas realizadas, hasta alcanzar una mejor aproximación al problema-
Datos primarios y secundarios.

Los datos primarios son aquellos que el investigador obtiene directamente de la realidad, recolectándolos con sus propios instrumentos.
Los datos secundarios son registros escritos que proceden también de un contacto con la práctica, pero que ya han sido elegidos y procesados por otros investigadores.
Los datos primarios y secundarios no son dos clases esencialmente diferentes de información, sino partes de una misma secuencia: todo dato secundario ha sido primario en sus orígenes, y todo dato primario, a partir del momento en que el investigador concluye su trabajo, se convierte en dato secundario para los demás.
Técnicas de recolección de datos primarios.
La observación. Consiste en el uso sistemático de nuestros sentidos orientados a la captación de la realidad que queremos estudiar. El uso de nuestros sentidos es una fuente inagotable de datos que, tanto para la actividad científica como para la vida práctica, resulta de inestimable valor.
La entrevista. Consiste en una interacción entre dos personas, una de las cuales - el  investigador - formula determinadas preguntas relativas al tema en investigación, mientras que la otra - el investigado - proporciona verbalmente o por escrito la información que le es solicitada.
Existen además otros procedimientos de recolección de datos primarios, entre los que figuran el llamado cuestionario de autoaplicación, los tests, los diagramas sociométricos, las escalas y diferenciales semánticos, etc. Todos tienen su origen, en última instancia, en las dos principales técnicas mencionadas.
LA OBSERVACIÓN CIENTÍFICA.
La observación puede definirse como el uso sistemático de nuestros sentidos en la búsqueda de los datos que se necesitan para resolver un problema de investigación. Observar científicamente es percibir activamente la realidad exterior con el propósito de obtener los datos que previamente han sido definidos de interés para la investigación.
La observación científica debe seguir algunos principios básicos:
Debe tener un propósito específico.
Debe ser planeada cuidadosa y sistemáticamente.
Debe llevarse, por escrito, un control cuidadoso de la misma.
Debe especificarse su duración y frecuencia.
Debe seguir los principios básicos de validez y confiabilidad.
La principal ventaja de esta técnica en el campo de las ciencias del hombre radica en que los hechos son percibidos directamente, sin ninguna clase de intermediación, colocándonos ante una situación tal como ésta se da naturalmente. De este modo, no se presentan las distorsiones que son usuales en las entrevistas, como la subjetividad del objeto investigado. Otra ventaja es que la conducta se describe en el momento exacto en que está ocurriendo.
Las observaciones se pueden realizar independientemente de que las personas estén dispuestas a cooperar o no, a diferencia de otros métodos enlos que sí necesitamos de la cooperación de las personas para obtener la información deseada.
Su principal inconveniente reside en que la presencia del observador puede provocar, por sí sola, una alteración o modificación en la conducta de los objetos observados, destruyendo la espontaneidad de los mismos y aportando datos poco fiables. Todos los seres humanos, al saberse observados, tienden naturalmente a alterar su conducta, pues hay muchas actividades, opiniones y actitudes que podemos tener en privado, pero nunca cuando sentimos que estamos siendo objeto de una observación. Es dificil poder observar la interacción familiar, por ejemplo, en el momento de acostarse o levantarse.
Para evitar las perturbaciones mencionadas, se han diseñado dos procedimientos:
Para evitar inhibiciones o alteraciones en la conducta de los sujetos observados, se trata de pasar lo más desapercibidos posible, actuando de tal manera que el observador no aparezca con contornos nítidos ante los observados, sino más bien como parte del "telón de fondo" de la situación. Si logramos esto, lograremos observaciones confiables y de buena calidad. Ésta es la observación simple.
La otra forma de que las personas no se sientan observadas se basa en un procedimiento inverso: el observador, en vez de pasar desapercibido, trata de integrarse a la acción de los observados, de participar en ella como si se tratara de un miembro más del grupo. Por ello, se la denomina observación participante. 

Observación simple y participante.
La observación simple resulta útil y viable cuando se trata de conocer hechos o situaciones que de algún modo tienen un cierto carácter público, o que por lo menos no pertenecen estrictamente a la esfera de las conductas privadas de los individuos.

La observación simple puede adquirir también un carácter indirecto, si apelamos al auxilio de instrumentos capaces de registrar información sobre el problema. El uso de vidrios polarizados, de cintas magnetofónicas, filmadoras, cámaras de televisión y otros  aparatos es de indudable valor en el estudio de la conducta humana, por la exactitud de sus registros y por la confianza que proporcionan al investigador.
La observación participante  implica la necesidad de un trabajo más dilatado y cuidadoso, ya que el investigador debe primeramente ingresar al grupo, comunidad o institución en estudio para  ir realizando la doble tarea de desempeñar roles dentro del conjunto y de ir recogiendo los datos que desea conseguir. Por lo tanto, es preciso confundirse con las personas sobre las que recae la investigación, sin abandonar la actitud observadora. Con esto se consigue ser testigo delos hechos "desde adentro", y el observador no sólo puede percibir las formas más exteriore sde la conducta sino también experimentar en carne propia las actitudes y valores que se relacionan con el comportamiento en estudio.

La observación participante puede variar desde una afiliación total al grupo hasta una participación limitada y condicionada, tanto en cuanto al tiempo como en cuanto a las funciones asumidas por el observador.
Es importante que no se divulgue la verdadera finalidad de su participación y que cuide todos los detalles de su aspecto personal, de sus gestos y ademanes, de las palabras y opiniones que expresa, parano aparecer como un participante anómalo, porque esto puede generar hacia él una actitud de desconfianza o un trato atípico, bloqueando la información que recibe y llegando hasta a  distorsionar las actividades que el grupo normalmente realiza.

Cuando los sucesos de interés se dan dentro de colectividades pequeñas o muy sensibles, es preferible reducir el número de observadores, pues una presencia colectiva puede causar más daños que beneficios.

Registro y formalización de la observación.
La tarea de observar no es una mera percepción pasiva de hechos, situaciones o cosas... Hablábamos de una percepción activa, lo cual significa seleccionar, organizar y relacionar los datos referentes a nuestro problema. No todo lo que aparece en el campo del observador tiene importancia y, si la tiene, no siempre en el mismo grado; no todos los datos se refieren a las mismas variables o indicadores y es preciso estar alerta para discriminar adecuadamente todo este conjunto posible de informaciones.
Resulta indispensable registrar toda observación que se haga. El problema del registro puede llegar a ser sumamente delicado cuando se trata de la observación de fenómenos de tipo social. En muchas circunstancias es prácticamente imposible tomar notas durante el transcurso de la observación, pues ello originaría sospechas y recelo. No habrá más remedio que confiar en la memoria, con todas
las limitaciones que esto supone.
En cuanto a los datos para registrar, es posible adoptar diversas posiciones. Puede actuarse con suma flexibilidad, recogiendo sólo aquellos datos que van apareciendo, anotando las  impresiones generales que causan los sucesos, deuna manera espontáneay poco organizada.



La observación estructurada se lleva a cabo cuando se pretende probar una hipótesis, o cuando se quiere hacer una descripción sistemática de un fenómeno; es decir, cuando estamos realizando un estudio o investigación en el que sabemos exactamente lo que vamos a investigar.
Por ejemplo, si vamos a observar el grado de agresividad de un niño mediante la frecuencia con que se presenta la conducta, en sus diferentes grados, primero definiremos qué queremos decir con conducta agresiva y cuáles son sus manifestaciones:
Identificación del niño:(se puede dar su nombre, o hacer referencia a alguna característica física o a algún número que permita identificarlo).

LA ENTREVISTA.
La entrevista es una forma específica de interacción social que tiene por objeto recolectar datos para una indagación. El investigador formula preguntas a las personas capaces de aportarle datos de interés,
estableciendo un diálogo, donde una de las partes busca recoger informaciones y la otra es la fuente de esas informaciones.
La ventaja esencial de la entrevista reside en que son los mismos actores sociales quienes proporcionan los datos relativos a sus conductas,opiniones, deseos, actitudes y expectativas. Nadie mejor que la misma persona involucrada para hablarnos acerca de aquello que piensa y siente, de lo que ha experimentado o piensa hacer. 

Es clásico el ejemplo de que las personas nunca contestan la verdad respecto de sus ingresos personales en dinero, ya sea porque los disminuyen (ante el temor de estar frente a algún inspector de impuestos), o porque los aumentan (con fines de ostentación social o para reforzar su autoestima).
Para que una entrevista tenga éxito, es preciso prestar atención a una serie de factores: es importante que la apariencia exterior del entrevistador resulte adecuada al medio social donde habrá de formular sus preguntas. El entrevistador habrá de ser una persona de por lo menos una cultura media, que comprenda el valor y la importancia de cada dato recogido y la función que su trabajo desempeña en el conjunto de la investigación.

Las entrevistas más estructuradas serán aquellas que predeterminen en una mayor medida las respuestas por obtener, que fijan de antemano sus elementos con más rigidez, mientras que las
entrevistas informales serán las que transcurran de un modo más espontáneo, libre, sin sujetarse a ningún canon establecido.
Entrevistas no estructuradas:
Una entrevista no estructurada o no formalizada es aquella en que existe un margen más o menos grande de libertad para formular las preguntas y las respuestas. No se guían por un cuestionario o modelo rígido.
Entrevista formal: Es la modalidad menos estructurada posible de entrevista, ya que se reduce a una simple conservación sobre el tema en estudio. Lo importante no es definir los límites de lo tratado ni ceñirse a algún esquema previo, sino "hacer hablar" al entrevistado, de modo de obtener un panorama de los problemas más salientes, de los mecanismos lógicos y mentales del que responde los temas que para él resultan de importancia.



Entrevista focalizada: Es prácticamente tan libre y espontánea como la anterior, pero tiene la particularidad de concentrarse en un único tema. El entrevistador deja hablar sin restricciones al entrevistado, proponiéndole apenas algunas orientaciones básicas pero, cuando éste se desvía del tema original, el entrevistador vuelve a centrar la conversación sobre el primer asunto.

Requiere de gran habilidad en su desarrollo, para evitar tanto la dispersión temática como caer en formas más estructuradas de interrogación.
Entrevista por pautas o guías: Se guían por una lista de puntos que se van explorando en el curso de la entrevista. Los temas deben guardar una cierta relación entre sí. El entrevistador hace muy pocas preguntas directas, y deja hablar al respondente siempre que vaya tocando alguno de los temas señalados en la pauta o guía.


Su principal inconveniente radica en que es poco práctico sistematizar un gran número de entrevistas de este tipo, organizándolas estadísticamente, pues pueden tener muy pocos puntos de contacto entre sí. Otra dificultad es su costo, pues involucran la presencia de personal altamente especializado durante tiempos relativamente largos.

Entrevistas formalizadas:
Se desarrollan en base a un listado fijo de preguntas cuyo orden y redacción permanece invariable. Comúnmente se administran a un gran número de entrevistados para su posterior tratamiento estadístico.
Entre sus principales ventajas, podemos mencionar su rapidez y el hecho de que pueden ser llevadas a cabo por personas con mediana preparación, lo cual redunda en su bajo costo. Otra ventaja es su posibilidad de procesamiento matemático.
Su mayor desventaja radica en que reducen grandemente el campo de información, limitando los datos a los que surgen de una lista taxativa de preguntas. Debe ser cuidadosamente redactado, evitando preguntas demasiado generales, confusas o de doble sentido, y tratando de conservar un orden lo más natural posible.
Las preguntas suelen dividirse en dos grandes tipos:
Preguntas de alternativas fijas o cerradas: Formalizan más el cuestionario, pues en ellas sólo se otorga al entrevistado la posibilidad de elegir entre un número limitado de respuestas posibles. Si se pregunta "¿cree usted en los OVNIS, sí o no?", estamos realizando una pregunta cerrada. No importa la cantidad de alternativas ofrecidas, si el respondente no puede elegir una respuesta que esté fuera de la lista, la pregunta se considera cerrada. Hay que tener sumo cuidado en la redacción de estas alternativas, procurando especialmente que sean exhaustivas y mutuamente excluyentes, y evitando que estimulen a responder en un sentido determinado.
Preguntas de final abierto o abiertas: Proporcionan una variedad más amplia de respuestas. Su redacción debe ser muy cuidadosa para evitar respuestas erróneas o confusas, y para evitar que ellas predispongan al entrevistado en uno u otro sentido
Una vez que se redacta el conjunto de preguntas que constituyen un cuestionario, es necesario revisarlas para asegurarse de su consistencia y eliminar los posibles errores y omisiones. Casi siempre se realiza una prueba piloto, que consiste en administrar el cuestionario a un conjunto reducido de personas para calcular su duración, conocer sus dificultades y corregir sus defectos, antes de aplicarlo a la totalidad de la muestra.
EL CUESTIONARIO AUTOADMINISTRADO.

Es un instrumento indispensable para llevar a cabo entrevistas formalizadas, pero puede usarse independientemente de éstas. En tal caso, se entregará al respondente el cuestionario para que éste, por escrito, consigne por sí mismo las respuestas. Es claro que no se trata de una entrevista, pues no existe el elemento de interacción personal que la define.
La elaboración del cuestionario requiere un conocimiento previo del fenómeno que se va a investigar.
En el desarrollo de un cuestionario se debe considerar los siguientes puntos:
El nivel educacional de la población, para saber que clase de vocabulario se va a utilizar en la redacción de las preguntas. Los cuestionarios deben ser autoexplicativos en cuanto a lo que requieren del informante. Los que los responden no deben necesitar la ayuda directa del investigador y/o sus colaboradores.
Deben contener preguntas concretas que no den lugar a respuestas vagas. Al informante se le deben explicar los objetivos de la investigación, es decir, para que queremos la información que estamos solicitando. El orden de presentación de las preguntas es muy importante: deben ir de las más fáciles a las más difíciles. Preguntar primero si el informante está consciente o ha pensado en el problema que se está investigando, y después hacer las preguntas específicas.


Las preguntas no deben redactarse de manera que exista una doble negación. Es importante obtener datos del informante (edad, sexo, ocupación, nivel educativo). Estas preguntas generalmente aparecen al final del cuestionario y precedidas de una pequeña introducción, debido a que muchas personas evitan responder este tipo de preguntas.
Todas las preguntas deben ser elaboradas de manera neutra, evitando sugerir de manera directa la respuesta. Por ejemplo: "¿Qué opina usted de los programas de TV para niños que se emiten de 3 a 5 de la tarde?", en lugar de algo así como: "Según se dice, los programas de TV para niños que se emiten diariamente de 3 a 5 de la tarde son fabulosos, ¿usted qué
opina?".

La ventaja es que la calidad de los datos obtenidos se incrementa, ya que al desaparecer la situación de interacción, se eliminan las posibles distorsiones que la presencia del entrevistador puede traer, ya sea por la forma de hablar, de enfatizar las palabras u oraciones,  ya sea por su misma presencia física, que puede retraer o inhibir al entrevistado.
Su desventaja está en que impide conocer las reacciones reales del informante ante cada pregunta. También las confusiones o malentendidos pueden multiplicarse, pues no existe la posibilidad de consultar sobre dudas específicas o de orientar una respuesta hacia su mayor profundización o especificación. Otro inconveniente es que el respondente puede consultar con otras personas antes de expresar sus opiniones.


Tipos de cuestionarios. La  forma o tipo de cuestionario depende tanto de los objetivos que persiga la investigación, como de los informantes:
Cuestionarios abiertos. Son aquellos en los que se pregunta al sujeto algo y se le deja en libertad de responder como quiera. Este tipo decuestionario es muy útil y proporciona mucha información, pero requiere más tiempo por parte del informante y es más difícil de analizar y codificar por parte del investigador.

Cuestionarios cerrados. Están estructurados de tal manera que al informante se le ofrecen sólo determinadas alternativas de respuesta. Es más fácil de codificar y contestar. Como desventaja, podemos mencionar que las categorías que se ofrecen pueden no ser las más adecuadas, o que la persona no haya pensado sus respuestas en términos de las categorías que se le ofrecen. Otra desventaja es que, al ofrecerle categorías al informante, se le están "sugiriendo" las respuestas.

Listas de preferencias y ordenamientos de opciones:al sujeto se le presenta una serie de afirmaciones, frases, opciones, etc. y él las debe ordenar según su grado de preferencia. Por ejemplo:
Coloque en orden de mayor a menor las actividades que prefiere realizar en su tiempo libre:
Leer Ir al teatro
Ver TV Descansar
Salir con amigos Otras
Ir al cine
Con respecto a los cuestionarios enviados por correo, el punto más importante que debe considerarse es que, por lo general, el porcentaje de personas que lo devuelven es muy reducido y, además, la muestra que contesta los cuestionarios, está sesgada; es decir, puede tener alguna característica en común, por ejemplo, cierto interés en el tema, y dar un tipo especial de respuestas.
SOCIOGRAMA.
Consiste en un gráfico en que se expresan las atracciones y repulsiones que los miembros de un determinado grupo experimentan entre sí, siendo por ello de suma utilidad para detectar fenómenos tales como liderazgo, existencia de subgrupos internos y anomia. Se construye pidiendo a cada miembro que señale a las personas que más congenian con él y las que menos lo atraen.
TESTS PSICOLÓGICOS.
Emplean una gran variedad de técnicas específicas. Una buena proporción de ellos utiliza la formulación de preguntas anotadas en algún formulario apropiado (el test) y que por lo general se autoadministra. En otros casos, se propone a la persona la realización de ciertas actividades pautadas y se observa su desarrollo. Estos tests pueden considerarse como observaciones realizadas en condiciones artificiales, preparadas y definidas de antemano.
TÉCNICAS PROYECTIVAS.
Se basan en presentar algún estímulo definido a los sujetos para que ellos expresen libremente, a partir de estos estímulos, lo que piensan, sienten o ven.

ESCALAS Y DIFERENCIALES SEMÁNTICOS.
En las escalas, se pide al entrevistado que se sitúe, según su opinión o actitud, en una escala gráfica. Se trata de un segmento de dimensiones fijas y conocidas, sobre el cual el respondente marcará algún signo que indique la posición en que se sitúa. Midiendo luego la distancia en centímetros que separa la marca hecha por el respondente respecto a uno cualquiera de los extremos, se podrá obtenerun valor numérico, que corresponde a un punto determinado de la escala.

En los diferenciales semánticos, lo que aparece en cada posición, son oraciones que señalan conductas o actitudes típicas, entre las cuales el entrevistado podrá elegir las que más coinciden con sus opiniones.
Por ejemplo:
Las siguientes escalas fueron diseñadas para estudiar la opinión de las personas con respecto a diferentes marcas de jabones de tocador:
Limpia  Deja sucio Huele bien  Huele mal Caro  Barato Fuerte  Suave Masculino  Femenino Elegante  Común
ANÁLISIS DE CONTENIDO.
Es una técnica que se basa en el estudio cuantitativo del contenido manifiesto de la comunicación. El análisis de contenido es útil para establecer comparaciones y estudiar en profundidad diversos materiales: registros de entrevistas en estudios de psicología clínica o evolutiva, editoriales de periódicos o revistas, programas o declaraciones políticas, entrevistas focalizadas o abiertas, etc.
Gracias a la aplicación de esta técnica, es posible hacer apreciaciones sistemáticas sobre la ideología y el pensamiento político de diversos órganos de difusión, encontrar coincidencias y discrepancias en entrevistas y obtener un tipo de información bastante profunda sobre temas complejos y difíciles de estudiar.
La principal ventaja que posee el análisis de contenido es que tiene una base empírica clara y perfectamente accesible, por lo que puede analizarse un texto con menos subjetividad que por otros medios.
Su principal inconveniente estriba en su costo, pues sólo puede hacer un análisis de contenido de cierta calidad un personal de alta calificación. Esta técnica tiene además una limitación intrínseca que el investigador tiene que tener presente: como el análisis abarca solamente el contenido manifiesto de la información  pero no mide ni evalúa los contenidos latentes o implícitos no puede afirmarse que por medio de esta técnica pueda tenerse una visión completa de los documentos en estudio.

Algunos investigadores también realizan un análisis de contenido cualitativo. En esencia, consiste en establecer categorías de estudio, con el fin de determinar los puntos más salientes del documento. Las categorías dependerán del documento que se analiza. Por ejemplo: los enfoques políticos, los tipos de propaganda, las contradicciones que se encuentren en el documento, etc. Otras categorías que frecuentemente se utilizan son aquellas que se refieren a la intensidad de alguna actitud determinada, hacen referencia a qué tan fuerte o débilmente se manifiestan las reacciones personales.
RECOLECCIÓN DE DATOS SECUNDARIOS.
Las bibliotecas son la mejor opción que se presenta al investigador, en especial en cuanto se refiere a libros, revistas científicas y boletines informativos. Tampoco deben dejarse de registrar otros lugares que pueden reunir información de este tipo: archivos y bibliotecas privadas, de organismos e instituciones públicas o privadas, librerías, puestos de venta de periódicos, etc. También las redes informáticas hacen posible una búsqueda sistemática de los materiales bibliográficos existentes.

Para recolectar la información, el instrumento que se utiliza es la ficha.  Las fichas bibliográficas son una simple guía para recordar cuáles libros o trabajos han sido consultados o existen sobre un tema. Las fichas textuales, además de poseer los datos del libro, constan de párrafos o trozoss eleccionados que aparecen en la obra, o de estadísticas, cuadros y otros datos semejantes. Estos fragmentos se repiten exactamente tal como han sido escritos, sin la menor alteración, para respetar el trabajo creador de quien estamos citando, haciendo mención explícita de la página en que aparecen. Las fichas de contenido, aparte de poseer los datos comunes a toda ficha, consisten en resúmenes o síntesis de párrafos, capítulos o aún de la obra entera. Las fichas son unidades de registro, no objetos físicos de determinadas características.
El valor de las fichas reside en que ellas permiten recopilar las informaciones que necesitamos para una determinada investigación. Si las fichas son completas y reflejan fielmente los datos originales, será posible desarrollar la investigación con la seriedad que requiere todo trabajo científico. Una vez concluido el trabajo de fichado de las fuentes, se estará en condiciones de continuar con las operaciones propias del diseño bibliográfico: cotejo y evaluación de las fuentes, análisis, síntesis y redacción del informe de investigación.

También existen documentos privados o personales que nos proporcionan información acerca de una persona determinada (cartas, diarios íntimos). El problema consiste en que no podemos saber qué tan fidedignos son los datos que estos documentos representan.
Bibliografía:
Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed. Mac
Graw - Hill.
Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed.
México (1994). Ed. Trillas S.A.
Tamayo y Tamayo, Mario. EL PROCESO DE LAINVESTIGACIÓN CIENTÍFICA. 3ª ed.
México (1998). Ed. Limusa S.A.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen -
Humanitas.
Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed. Mac
Graw - Hill.
Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed.
México (1994). Ed. Trillas S.A.
Tamayo y Tamayo, Mario. EL PROCESO DE LAINVESTIGACIÓN CIENTÍFICA. 3ª ed.
México (1998). Ed. Limusa S.A.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen -
Humanitas.
Susan Pick y Ana Luisa López -CÓMO INVESTIGAR EN CIENCIASSOCIALES - Ed.
Trillas - 1998
RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA ADMINISTRADORES,
ED. PRENTICE HALL, SEXTA ED., 1996
RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA ADMINISTRADORES,
ED. PRENTICE HALL, SEXTA ED., 1996
Klimovsky, Gregorio - Las desventuras del conocimiento científico - AZ Editores - Bs. As. -
1995
TENORIO BAHENA, JORGE - TÉCNICAS DEINVESTIGACIÓN DOCUMENTAL - 3ª
edición - ED.MC GRAW HILL - México - 1988
CARLOS A. SABINO. El proceso de investigación.Buenos Aires, Editorial Lumen -
Humanitas, 1996
TENORIO BAHENA, JORGE, Técnicas de investigación documental, 3ra. edición, México,
Ed.Mc. Graw Hill, 1998
PICK, Susan (et. al.), Cómo investigar en ciencias sociales, 3ra edición, México, Editorial
Trillas, 1998.
Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed. Mac
Graw - Hill.
Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed.
México (1994). Ed. Trillas S.A.
Tamayo y Tamayo, Mario. EL PROCESO DE LAINVESTIGACIÓN CIENTÍFICA. 3ª ed.
México (1998). Ed. Limusa S.A.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen -
Humanitas.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (199 Bibliografía:
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen -
Humanitas.
Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed.
México (1994). Ed. Trillas S.A.
Tamayo y Tamayo, Mario. EL PROCESO DE LAINVESTIGACIÓN CIENTÍFICA. 3ª ed.
México (1998). Ed. Limusa S.A.
6). Ed. Lumen - Humanitas.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen -
Humanitas.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen -
Humanitas.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen -
Humanitas

Observador veracruzano

violencia

La violencia volvió a hacerse presente en el futbol mexicano. Tras el partido entre Veracruz y Tigres, la porra de los locales agredió a la barra visitante y lanzó varios objetos a los jugadores felinos, provocando el enojo del ténico Ricardo Ferretti al ver la nula reacción de las autoridades. 

El encuentro que ganaron los regiomontanos terminó con un marcador de 3-0, lo que caló en un sector de la afición veracruzana, la cual arremetió contra los seguidores contrarios y se fueron a los golpes.

Observador veracruzano

0foto 349597 1

México.- El futbolista y estrella del Real Madrid, Cristino Ronaldo, entró en comunicación con la familia de Santiago Flores Mora, niño que no pudo sobrevivir al colapso del Colegio Enrique Rébsamen, luego del terremoto del pasado martes.

La madre del pequeño 'Santi' publicó en Twitter una emotiva carta explicando la idolatría que su hijo profesaba por Ronaldo, misiva que pudo llegar a los ojos del jugador Merengue, quien, consternado, entabló comunicación con la familia a través de su representante Jorge Mendes, como informa el periodista Ignacio Suárez.

"Mi hijo se decía llamar Santiago Flores Mora Cristiano Ronaldo. La admiración por usted no tiene igual. Yo al preguntarle qué quería ser de grande, me dijo que maestro de historia como su padre y futbolista como el mejor crack de futbol, como Cristiano Ronaldo", escribió la madre.

Observador veracruzano

Foto: Getty/Mexsport

0 1 14 deportes

Luego de varios días de negociaciones, la esperada pelea entre los mexicanos Julio César Chávez Jr. y Saúl Álvarez quedó confirmada para el próximo 6 de mayo.

El contrato está firmado y ambos pugilistas se verán como parte de los festejos del fin de semana del 5 de mayo, en una sede por confirmar y en un peso pactado de 164.5 libras.

“Álvarez (48-1-1, 34 KOs) y Chávez Jr. (50-2-1, 32 KOs) sostendrán un histórico enfrentamiento que rivalizará con las más grandes e importantes peleas en la historia del orgulloso linaje boxístico de México”, señaló Golden Boy Promotions en un comunicado.

Desde el pasado mes de diciembre comenzaron los rumores y se confirmaron las negociaciones para la pelea, y aunque se dudó que pudiera realizarse por cuestiones del peso, al final quedó pactada en 164.5 libras.

Subcategorías