miércoles, 31 de octubre de 2018

Memoria a Corto Plazo y Memoria de Trabajo: Diferencias

memoria-corto-plazo

La memoria a corto plazo

La Memoria a Corto Plazo retiene información por un tiempo breve hasta que esta info. se procesa y pasa a la Memoria a Largo Plazo.

Para evaluar la amplitud de la memoria a corto plazo se utiliza la prueba de amplitud de dígitos, que consiste en  mantener una pequeña cantidad de dígitos durante un breve periodo de tiempo. (Ver recuadro 3.1 por curiosidad). Está demostrado que un adulto puede retener entre 5 y 9 dígitos,  aunque algunas personas pueden  retener más.

Efectos de primacía y resencia: La capacidad de la memoria a corto plazo.

Agrupamiento (chunkin): Mediante este método se puede aumentar la capacidad de la MCP Consiste en agrupar los elementos que se desean retener relacionándolos entre sí Por ejemplo cuando utilizas reglas nemotécnicas para estudiar, o si te dan a-m-r-e-t-y-l-i  pues agrupas para recordar mejor: my – litera…se entiende. (Todo estoy siempre y cuando se permita al sujeto la tarea de recuerdo libre). Aparece cuando la MCP recibe más información de la que puede almacenar.

En la curva de posición serial aparecen dos fenómenos:

Efecto de primacía: Los elementos que se presentan al principio de una serie se recuerdan bastante bien puesto que se presta más atención y se repiten más los elementos del principio de la lista.

Efecto de recencia: Muestra la ventaja de los elementos presentados al final de la lista, puesto que son los que mejor se recuerda. Esto es porque los últimos elementos de la serie están todavía contenidos en la MCP, por lo que se presentará una elevada probabilidad de ser recordados.

Los elementos intermedios se perderán en su mayor parte, debido a que tienen menos probabilidad de repetición y no están contenidos en la MCP.

Esto dedujo a Waugh y Norman (1965) la existencia de dos almacenes diferentes de memoria (modelo dual, con un sistema de memoria primaria y uno de secundaria)

Tanto el efecto de primacía como de recencia, son dos componentes de las tareas de recuerdo libre. La existencia de disociaciones entre estos dos componentes se interpretó como una muestra de que existen dos tipos de memoria diferentes: la MCP y la MLP. (Postman y Philips, recuadro 3.2 Pág. 114.)

Resumen: El principal argumento a favor de los modelos multialmacén es que cada almacén de la memoria presenta propiedades diferentes, sin embargo en los años 70 y 80, se puso en duda el estatus de la MCP como diferente de la MLP.

Capacidad de la Memoria a Corto Plazo

A tener en cuenta los siguientes conceptos:

Interferencia proactiva: los elementos almacenados interfieren en los nuevos elementos para su memorización. 

Interferencia retroactiva los elementos nuevos interfieren a los ya almacenados.

Se comprobó que cuando se probaba la memoria con palabras de la misma categoría, la capacidad de la MCP disminuía al aumentar los ensayos, sin embargo, cuando en el ensayo siguiente se cambiaba de categoría (pasar de números a letras por ejemplo), el recuerdo mejoraba.

Esto dio lugar al:

Efecto de la categoría (Wickens, 1972): El cambio de categoría del material a recordar mejora la actuación, al cabo de unos cuantos ensayos, como resultado de la liberación de la interferencia proactiva cuestionando el estatus independiente de la MCP. La liberación de la interferencia (mejor recuerdo) es mayor cuanto más diferente es la categoría.

Interpretación: Si la capacidad de la MCP es constante, debería mantenerse constante a lo largo de los ensayos, independientemente del tipo de material presentado. El hecho de que la capacidad varíe, sugiere que la información contenida en la MLP produce interferencia sobre el material contenido en la MCP, es decir a la MCP le influyen los contenidos de la MLP, cuestionando su autonomía.

Codificación de la información en la Memoria a Corto Plazo

Los primeros estudios

En los sistemas sensoriales (memoria icónica y ecoica), la codificación era sensorial. Sperling, había notado que las confusiones de los sujetos para recordar las letras eran de tipo fonológico y no visual. Conrad estudió esto en dos fases:

  1. En la primera comprobó las confusiones de letras, cometidas tanto visual como acústicamente: En la condición visual, confundieron las letras con rasgos visuales similares (K-X). En la condición acústica, confundían las letras con sonido semejante (C-Z).
  2. La segunda fase consistió en realizar la tarea de Brown-Peterson (ver más adelante), con trigramas de consonantes (ZCV) presentados visualmente para estudiar los errores que se cometían cuando recordaban los trigramas tras una tarea distractora.

Resultado: Los participantes introdujeron mayoritariamente letras que habían sido confundidas con la forma acústica, no con la visual: Aunque las letras se presentaron visualmente, los participantes recordaban su forma auditiva.

Diversidad de código

Conrad realizó un estudio con sordos congénitos, utilizando la tarea de Brown-Peterson y encontró que las confusiones eran de tipo visual: deduciendo así que en la MCP, además de codificación verbal, también era posible la codificación visual.

Resumen: El modo de codificación acústica, visual o semántica no supone una diferencia entre la MCP y la MLP. Parece que la información contenida en ambos tipos de memoria puede adoptar diversos códigos (Baddeley, Shulman).

Duración de la información en la Memoria a Corto Plazo

La diferencia en la duración del material retenido, tanto en la MCP (pocos segundos) como en la MLP (indefinida), favorece a la idea de dos sistemas de memoria independientes.

Distracción y olvido. El paradigma de Brown-Peterson

La distracción produce olvido. Brown & Peterson, desarrollaron un paradigma para el estudio del olvido en la MCP:

El paradigma de Brown-Peterson consistió en estudiar el olvido de un pequeño número de elementos bajo condiciones de distracción, notando que el olvido del material a retener fue muy rápido, pues a los 18 seg., de realizar la tarea distractora el olvido fue casi total. Ver Recuadro 3.3

Los resultados de Brown y los de Peterson-Peterson se interpretaron a partir de la siguiente teoría:

La Teoría del decaimiento de la huella, dice que durante el aprendizaje del material se forma una huella en la memoria que se borra con el paso del tiempo. Las personas pueden evitar que esa traza se borre, mediante la repetición del material. Esta teoría parece estar equivocada, puesto que el olvido es más rápido cuando:

  1. Los distractores son más similares a los estímulos que hay que recordar (Corman y Wickens)
  2. Cuando las tareas son más difíciles.

El problema de la duración del olvido

A partir de los resultados obtenidos con la tarea de Brown-Peterson se encontró que el olvido del material a recordar se producía en unos 18 seg. después de la presentación del mismo. Más tarde, en estudios realizados se encontró que el olvido se produce mucho más pronto de lo que los estudios iniciales sugerían. Muy relacionado con esto podemos encontrar información sobre la curva del olvido.

Influencia de la interferencia proactiva

La propuesta de Brown y los Peterson de que el decaimiento de la huella produce el olvido despertó interés porque hasta entonces se explicaba el olvido mediante la interferencia. (Interferencia retroactiva y proactiva – explicadas en la página anterior).

Tanto Brown como Peterson utilizaron tareas distractoras que hacían improbable la interferencia retroactiva sobre los estímulos a recordar porque provenían de categorías diferentes. Había que comprobar si el material antiguo influía negativamente, inhibiendo el recuerdo del material que se presentaba más tarde.

Keppel y Underwood  demostraron que la interferencia proactiva era la causante del olvido en la tarea de Brown-Peterson.

Resumen: La propuesta de Brown y los Peterson de que el olvido se produce por el decaimiento de la huella de memoria parece, en la actualidad, incorrecta. El olvido en la memoria inmediata puede ser el resultado de la interferencia producida por otros elementos similares almacenados en nuestra memoria. Es probable que esta interferencia se deba a la dificultad de discriminar entre la información que buscamos y la información que hemos adquirido previamente y no necesitamos en ese momento.

Recuperación de información a partir de la memoria a corto plazo

Sternberg (1969 a y b, 1975) sugería que la recuperación de la información en la memoria a corto plazo es diferente a la recuperación en la memoria a largo plazo. Sternberg aplicó el modelo de los factores aditivos a los tiempos de reacción obtenidos en los experimentos de memoria. La tarea es de una búsqueda exhaustiva en la memoria, sugiriéndole la existencia de 4 estadios de hipotéticos procesamientos:

  1. Codificación del estímulo
  2. Recuperación a partir de la memoria
  3. Decisión
  4. Selección de respuesta

El resultado más importante fue que el tiempo necesario para decidir si un dígito pertenecía al conjunto de elementos mantenidos en la memoria era una función lineal del nº de elementos contenidos en la memoria. Por cada elemento que se aumentaba en el conjunto de memoria, el tiempo necesario para su recuperación es de 38 milisegundos. La recuperación  del material en la MCP es serial, mientras que de la MLP se realiza en paralelo.

Procesamiento serial: procesamiento sucesivo de varios estímulos.

Procesamiento paralelo: Procesamiento simultáneo de varios estímulos.

memoria a corto plazo

El modelo de la memoria de trabajo

El ejecutivo central, el bucle fonológico y la agenda visoespacial

Baddeley y Hitch, intentaron responder a la pregunta ¿para qué sirve la MCP? Propusieron un modelo de memoria de trabajo como alternativa a la MCP. Este modelo está formado por:

Un Ejecutivo Central, encargado de controlar a otros sistemas que trabajan de modo concurrente y dos sistemas subsidiarios (la agenda visoespacial y el bucle fonológico). Ejerce las funciones de control atencional y tiene capacidad limitada:

  • El Bucle fonológico: Es el encargado del procesamiento del lenguaje y almacena información de manera temporal. Está formado por el sistema de control articulatorio, que es un sistema de repetición verbal (como la “voz interior”) y por el almacén fonológico, que es un sistema de almacenamiento de tipo de tipo verbal (como el “oído interior”). Estos dos sistemas se comunican entre sí. .
  • La agenda espacial: Se encarga de la manipulación de imágenes mentales y almacena información visual y espacial durante un cierto tiempo. Actúa como “el ojo interior”.

Conclusiones:

  • El modelo de memoria de trabajo, explica una serie de fenómenos de forma más adecuada que la MCP del modelo de almacenes múltiples de memoria.
  • Este modelo es capaz de explicar efectos como la semejanza fonológica descubierta por Conrad.
  • Podría suponerse que existiesen otros sistemas periféricos para almacenar otros tipos de información como la táctil.
  • La memoria de trabajo debería ser mejor predictor de la capacidad para la lectura que la simple MCP (recuerdo de dígitos).

El modelo actualizado: El modelo multicomponente de la memoria de trabajo

Este modelo presenta dos adiciones, en relación al original:

  1. La conexión con la MLP desde los subsistemas fonológico y visoespacial, uno permitiendo la adquisición del lenguaje y otro el conocimiento espacial.
  2. La inclusión de un almacén episódico que en su versión original se accedía sólo desde el ejecutivo central. (Nuevos resultado indicaron que podía también accederse desde el bucle fonológico del sistema visoespacial).

El buffer episódico

Baddeley añadió este nuevo componente a su modelo de memoria de trabajo para explicar como se relacionan la memoria de trabajo y la MLP. Este búfer episódico es un sistema de almacenamiento que puede contener hasta cuatro agrupaciones de información en un código multidimensional. Esta unidad de almacenamiento temporal episódico puede estar conectada con distintos subsistemas de la memoria de trabajo y también puede conectar estos subsistemas con la información de la MLP y la percepción.

La memoria de trabajo visoespacial

Esta memoria se define como la capacidad para mantener información visoespacial en un sistema temporal de memoria y procesarla sin tener en cuenta la fuente estimular, normalmente visual, pero también háptica o auditiva.

Cornoldi y Vecchi) han propuesto un modelo de memoria de trabajo que tiene en cuenta dos dimensiones fundamentales: Horizontal (relacionada con los tipos de materiales: verbal, visual, háptico) y vertical (tipo de procesos para elaborar e integrar la información)

Se ha encontrado interferencia espacial en las tareas visual y háptica con la realización de una tarea secundaria (doble tarea), pero mayor deterioro sobre las hápticas. Mayor aún cuando las tareas principal y secundaria se realizan en la misma modalidad que cuando se realizan cada una en una modalidad diferente (Sebastián, Mayas, Manso y Ballesteros, 2008).

La entrada Memoria a Corto Plazo y Memoria de Trabajo: Diferencias aparece primero en Psicocode.



from Psicocode https://ift.tt/2CTxJGz
via IFTTT

La investigación científica en Psicología

investigacion-cientifica-psicologia

Introducción

Objetivo del tema: Iniciar al alumnado en las fases del proceso de investigación. Finalidades del tema:

‐  Proporcionar las bases generales que faciliten la comprensión de las distintas estrategias de investigación que se tratarán en los siguientes temas.

‐  Adquirir los conocimientos necesarios para comprender y valorar de forma crítica los trabajos de la investigación psicológica.

PSICOLOGÍA: Ciencia que pretende analizar y explicar la conducta de los individuos, grupos y organizaciones para prevenir, promover y mejorar la calidad de vida y la salud.

PROCESO DE INVESTIGACIÓN: Secuencia de pasos ordenados, adoptados por la comunidad científica. Tiene un carácter cíclico (puesto que la interpretación de los datos nos lleva nuevamente al nivel teórico-conceptual).

‐  Nivel teórico-conceptual: Planteamiento del problema y formulación de hipótesis.

‐  Nivel técnico-metodológico: Selección de la metodología (procedimiento para la obtención de datos). Es el objetivo fundamental del contenido de este libro.

‐  Nivel estadístico-analítico: Estadística: El objeto de estudio de las ciencias sociales plantea problemas

especiales por la dificultad de definir y operativizar sus constructos teóricos y por la inestabilidad de los datos (varianza ó variabilidad error = valores reales – valores sistemáticos). Con la Estadística conseguimos extraer conclusiones fiables y válidas en situaciones de variabilidad e incertidumbre (error mínimo).

El texto comenta que estos aspectos se tratarán en los temas 3 y 4. Ahora únicamente se comentan…

Algunas cuestiones relativas al análisis de datos:

1)  La correcta aplicación de las técnicas estadísticas nos servirán para contrastar las hipótesis.

2)  Será fundamental elegir la técnica de análisis más adecuada en función del diseño de la investigación, de su estructura y del nivel de medida de los datos.

3)  El análisis estadístico debe estar al servicio de la persona que investiga (describir datos -estadística descriptiva- y generalizarlos -estadística inferencial-).

Análisis (interpretación de los resultados): Relacionan la teoría con los datos empíricos y los integran con los resultados de otros trabajos. Esto nos lleva nuevamente al primer nivel (teórico-práctico carácter cíclico).

La ciencia y el conocimiento científico

CONOCIMIENTO ORDINARIO: Conocimiento basado en tradiciones culturales, costumbres…

CONOCIMIENTO CIENTÍFICO: Conocimiento basado en la investigación científica (aplicación del método científico). Proceso más objetivo y sistemático. Es un saber crítico, racional, metódico, verificable, provisional, sistemático, objetivo, ordenado, comunicable y que explica y predice hechos por medio de leyes. La sistematización del conocimiento científico se realiza a través de la elaboración de teorías.

La elaboración de teorías

A mí me ha costado un poco entender claramente la diferenciación, pero espero que las vueltas que le he dado hayan servido para algo y los términos os queden claros. ¡Se admiten sugerencias!
HIPÓTESIS: Enunciado teórico referido a acontecimientos no sujetos, hasta el momento, a contrastación empírica. Es modificable a la luz de nuevos datos. Son proposiciones tentativas acerca de la naturaleza. Suelen formar parte de sistemas teóricos más amplios (teorías), dentro de ellos, enuncian aspectos determinados, que permiten desarrollar el contraste empírico.

LEY: Hipótesis confirmada. De amplio alcance explicativo. Refleja las regularidades de la naturaleza. Explican las uniformidades que se observan en los hechos. Sintetizan el conocimiento. Se engloban dentro de las teorías. Características necesarias para que una hipótesis se conviertan en ley:

  1. 1o.  Que exprese regularidades de comportamiento bajo determinadas condiciones.
  2. 2o.  Que sean universales (aplicables a todos los elementos particulares incluidos en el enunciado de la ley).
  3. 3o.  Que establezcan una relación necesaria entre las condiciones antecedentes y consecuentes del enunciado.

TEORÍA: Agrupación de esquemas conceptuales formados por conjuntos de hipótesis con los que representamos el conocimiento científico de forma sistematizada.
De manera que, según lo he definido, se va de lo más concreto a lo más general.

TÉRMINOS PRIMITIVOS: Extraídos del lenguaje común o de otras teorías científicas para describir los fenómenos observados. Provienen de ámbitos externos a la teoría, no es función de la misma definirlos. Intensidad emocional (“intensidad”: término importado de la física).

CONSTRUCTOS (o CONCEPTOS): Términos que pueden aparecer en hipótesis, leyes o teorías para referirse a variables que no son directamente observables. Extrae las características comunes. Permite una mejor organización del conocimiento. Son términos abstractos, de manera que su uso es más complejo que el de los términos primitivos. Memoria (que se mide a través de test), ira, alegría… Función ejecutiva (conjunto de procesos -memoria, control inhibitorio- que subyacen a respuestas controladas y dirigidas a conseguir metas en situaciones nuevas o difíciles; originalmente propuesto por Luria).

MODELO: Representación arbitraria (metafórica) de una parcela de la realidad. Sirve para simular su funcionamiento. La mente como si fuera un ordenador.

CARACTERÍSTICAS de las teorías científicas (Delclaux, 1987a):

  • ‐  Susceptible de prueba: Sus hipótesis pueden ser contrastadas.
  • ‐  Relevante: Se ocupa de aspectos significativos que supongan un incremento del conocimiento.
  • ‐  Simple: Ante dos teorías que expliquen lo mismo, se preferirá la que esté formulada en términos más sencillos.
  • ‐  Susceptible de modificación (si aparecen evidencias en contra de sus predicciones).FUNCIONES de las teorías científicas (Bunge, 1969):
  • ‐  Sintetizar el conocimiento, estableciendo relaciones lógicas entre entidades antes inconexas.
  • ‐  Explicar los hechos mediante hipótesis.
  • ‐  Incrementar el conocimiento.
  • ‐  Reforzar la contrastabilidad de las hipótesis.
  • ‐  Orientar la investigación.
  • ‐  Ofrecer un modelo y un procedimiento para producir nuevos datos.

El método científico

CARACTERÍSTICAS del método científico:

‐  Base empírica: Proceso continuo de contrastación (verdades parciales).

‐  Diversidad de formas: Cualitativo o cuantitativo, adaptándose al fenómeno que se estudia.

‐  Sistematicidad y control.

‐  Fiabilidad: Consistencia y replicabilidad de métodos, condiciones y resultados.

‐  Validez:

o Interna: Exactitud en la interpretabilidad de los resultados.

o Externa: Generalización de las conclusiones.

‐  Flexibilidad: Se adapta al objeto de estudio de las diversas ciencias. Formas del método científico. TIPOS:

‐  Método INDUCTIVO: Llega al conocimiento a través de la experiencia. Observo la realidad y establezco la regla.

‐  Método DEDUCTIVO: Parte de axiomas/principios indemostrables y establece reglas de procedimiento a partir

de las que se realizan deducciones lógicas aplicables a los datos reales. Parto de un “concepto” y compruebo que realmente es cierto a través de la práctica. Para acordarme, yo pienso que así es como se lleva a cabo el método tradicional de enseñanza. Nos cuentan la teoría y, si queda tiempo, nos lo demuestran con prácticas…

‐  Método HIPOTÉTICO-DEDUCTIVO: Forma combinada. Es el método actualmente usado por la mayoría de las disciplinas (incluida la Psicología).

La investigación científica en Psicología

FASES a seguir por la persona que investiga (6, distribuidas en 3 niveles, según Arnau, 1990a): ‐ Nivel teórico conceptual:

1o.  Planteamiento del problema u objeto de estudio. Definición de las variables. (1.3.1)

2o.  Formulación de hipótesis contrastables. (1.3.2)

‐ Nivel técnico-metodológico:

3o. Establecimiento del procedimiento. Recogida de datos. Metodología. (1.3.3) ‐ Nivel estadístico-analítico:

4o.  Análisis de datos. (1.3.4)

5o.  Interpretación de los resultados: discusión y conclusiones (ciclo: vuelta al nivel teórico conceptual). (1.3.5)

6o.  Elaboración del informe de investigación. Comunicación de resultados. (1.3.6)

1.3.1. Planteamiento del problema y definición, medición y clasificación de las variables

1.3.1.1. El problema

FUENTES de problemas. Contextos en los que surgen (Pinto, 2009):

‐  Experiencia.

‐  Teorías científicas.

‐  Conocimiento previo.

CRITERIOS para elegir el problema (Pinto, 2009): Para que merezca le pena invertir en él tiempo y dinero…

‐  Debe contribuir a incrementar el conocimiento de la disciplina.

‐  Debe conducir a nuevos interrogantes e investigaciones posteriores.

‐  Debe poder investigarse.

‐  Debe ser viable para quien investiga.

A menudo, en la definición del problema suelen expresarse las variables que intervendrán en la investigación.

¿Influye el nivel de ansiedad en el rendimiento deportivo?
¿Existen diferencias entre las técnicas de inoculación de estrés y las técnicas de relajación en cuanto al control de la ansiedad? ¿Cuáles son más eficaces?

Las variables

Definición de variables

VARIABLE (X = CI, depresión…): Característica que puede asumir más de un valor (numérico o categórico: x1, x2, …, xn). En principio, serían constructos que pasan a considerarse variables cuando se definen en términos explícitos y se determina cómo medirlos.
CONSTANTE: Característica con un solo valor.

Medición de variables

MEDIR: Asignar números, de forma congruente, a los fenómenos observados (en Psicología sirven para operativizar la conducta). Sólo serán válidas aquellas relaciones numéricas que puedan ser verificables empíricamente.
Tipos de ESCALAS DE MEDIDA: Esto ya lo vimos en Introducción al análisis de datos, asique… ¡seguro que os suena!

1)  Escala NOMINAL: Los números son simples símbolos. No tiene sentido realizar operaciones matemáticas con ellos. Sólo pueden representarse relaciones de igualdad-desigualdad. Tipo de transformación admisible: cualquiera que preserve las relaciones de igualdad-desigualdad. Nacionalidad. Tipo de enfermedad psicológica.

2)  Escala ORDINAL: Los números representan mayor o menor grado de la cualidad. Tampoco podemos realizar operaciones. Además de relaciones de igualdad-desigualdad, pueden representarse relaciones de ordenación. Tipo de transformación admisible: cualquiera que preserve el orden de magnitud, creciente o decreciente. Escala de dureza.

3)  Escala DE INTERVALO: Cuenta con una unidad de medida en la que el 0 (origen de la escala de medida) es relativo (no implica carencia absoluta de la cualidad medida). Además de las anteriores, pueden representarse relaciones de igualdad-desigualdad de las diferencias entre las magnitudes de los objetos medidos. CI.

4)  Escala DE RAZÓN: El 0 es absoluto. Tiempo de reacción (en milisegundos).

Clasificación de variables

Hipótesis de partida: “La agresividad influye en la conducción”.

I. Desde el punto de vista metodológico, según el papel que juegan en la investigación:

1) Variables INDEPENDIENTES (VV.II.) = VV. antecedentes, VV. causales, VV. predictoras, factores:

CAUSAS en la hipótesis de partida. Aquellas que el experimentador decida manipular. Podrá adoptar distintos niveles, condiciones o tratamientos. Agresividad.

2)  Variables DEPENDIENTES (VV.DD.) = VV. de la tarea, VV. consecuentes, VV. pronóstico, VV. Criterio: EFECTOS en la hipótesis de partida. Aquellas que queremos predecir utilizando otras variables. Aquellas que el experimentador decida medir para ver los efectos producidos por la manipulación de las VV.II. Conducción.

3)  Variables EXTRAÑAS (VV.EE.): Aquellas ajenas a la relación buscada entre las variables anteriores que pueden influir en dicha relación. No siendo variables de estudio, pueden incidir en la variable dependiente. Se deben prever, detectar y controlar. Edad, sexo, nivel de estudios, etc. Proceden de…

‐ El sujeto.
‐ El ambiente.
‐ La situación experimental.

0) *Variables de SELECCIÓN DE VALORES: Aquellas que juegan, en las hipótesis, el papel de variable independiente, pero no son manipuladas intencionalmente por quien investiga (por su propia naturaleza o por razones éticas). El estudio de estas variables y su relación con las dependientes se realiza a través de la selección de sujetos que poseen unas determinadas características que identificaremos como valores de dichas variables.

Formulación de hipótesis

Consiste en ofrecer, a partir de los supuestos teóricos, una predicción tentativa del problema objeto de estudio, de forma que se pueda contrastar con los datos obtenidos.

Doble FUNCIÓN:

  • ‐  Epistemológica: Permiten relacionar las teorías con los hechos de la naturaleza.
  • ‐  Metodológica: Orientan todo el proceso de la investigación.REQUISITOS para su formulación:
  • ‐  Ser consistente: Sin contradicciones.
  • ‐  Ser compatible con otras teorías/leyes.
  • ‐  Ser comprobable empíricamente.PRINCIPIOS al elegirla:
  • ‐  Simplicidad: La más sencilla.
  • ‐  Generalización: La de mayor alcance explicativo.

OPERATIVIZACIÓN: Acto de traducir el constructo en su manifestación externa. Conlleva definir con exactitud las variables implicadas y la relación entre ellas (condiciones antecedentes y consecuentes).

CONTRASTAR una hipótesis es ponerla en relación con los hechos para determinar si se adecúa o no a ellos. Una hipótesis nunca se puede probas, sólo se puede contrastar (se acepta o se rechaza, con un cierto margen de error o nivel de confianza). Los enunciados científicos siempre se plantean de forma provisional, hasta que los datos demuestren lo contrario.

ELABORAR una hipótesis de trabajo es definir el problema de tal forma que se pueda pasar inmediatamente a su comprobación. Para hacerlo adecuadamente es necesario que se exprese la relación que se espera entre las variables (lo que, anteriormente, exige una correcta formulación de las variables que intervienen en la situación).

TIPOS de hipótesis:

  • ‐  Hipótesis GENERALES: Las que se derivan de las teorías. Las más amplias.
  • ‐  Hipótesis DE TRABAJO (H. de investigación ó H. científicas): Forma muy concreta de formular un aspecto del problema. Puede ser objeto inmediato de comprobación empírica.
    o Hipótesis EXPERIMENTALES (H. de tipo causal):“Si ocurre A, entonces ocurrirá B”.
  • ‐  Hipótesis ESTADÍSTICAS: Las que se formulan a partir de las hipótesis de trabajo para la contrastación estadística.o HipótesisNULA.o HipótesisALTERNATIVA.
    Según el libro, la aplicación de este tipo de hipótesis se verá en el apartado de análisis de datos. (1.3.4)

Establecimiento de un procedimiento para la recogida de datos

Etapa muy importante porque las conclusiones se basarán en dichos datos. La persona que investiga debe tomar decisiones sobre:

‐  El procedimiento que mejor se ajuste a sus objetivos dentro de la estrategia metodológica con la que se desarrolle el estudio.

‐  El diseño concreto.

‐  Las técnicas de recogida de datos.

ESTUDIO PILOTO: Aplicación del procedimiento (completo o parte de él) previsto para la investigación en una pequeña muestra de personas con el objeto de detectar problemas, inconvenientes o ambigüedades susceptibles de ser corregidas. Es aconsejable hacerlo antes de empezar con el procedimiento definitivo de recogida de datos.

Los siguientes apartados exponen aspectos concretos del procedimiento que son importantes para el proceso de recogida de datos. Deben describirse detalladamente a la hora de publicar la investigación para que pueda ser replicada por otras investigadoras e investigadores

Selección y descripción de la muestra

POBLACIÓN: Conjunto, finito o infinito, de elementos definidos por una o más características de las que gozan todos los elementos que la componen y sólo ellos. Es lo primero que hay que especificar.

CENSO: Estudio de todos los elementos que comprenden la población.

MUESTRA: Subconjunto de elementos de una población. Para que los resultados del estudio sean generalizables a toda la población, la muestra debe ser REPRESENTATIVA (que sus elementos representen al conjunto de los elementos que componen la población) y para que esto ocurra, es muy importante determinar…

El tamaño de la muestra (cuántas unidades muestrales vamos a necesitar) en función de:

‐  Necesidades del estudio.

‐  Técnicas estadísticas previstas.

El procedimiento de muestreo que debe seguirse.

MUESTREO: Proceso por el que se elige la muestra. Tipos:

‐  Probabilístico: Aquel en que pueden calcularse de antemano la probabilidad de obtener cada una de las muestras posibles. Es el único tipo de muestreo capaz de darnos el riesgo que cometemos en la inferencia (permite hacer afirmaciones tales como: “Podemos concluir con una seguridad o confianza del 95% que existen diferencias significativas entre los grupos” o bien “Podemos concluir, con un riesgo o probabilidad de equivocarnos del 5%, que no existen diferencias entre los grupos”). Con él se obtiene una muestra representativa de la población. Libro “Introducción al Análisis de Datos”, pág. 248 y siguientes.

‐  No probabilístico: Muestreo basado en criterios fijos, o por razones de accesibilidad. INFERENCIA ESTADÍSTICA: Generalización de los resultados de la muestra a la población. UNIDAD MUESTRAL: Cada elemento de la muestra.
PARTICIPANTES: Sujetos constituyentes de la muestra.

Aparatos y materiales

El que investiga debe tener buenos conocimientos de psicometría para la selección o elaboración de los instrumentos de medida. Deben considerarse:

‐  Las distintas opciones disponibles.

‐  Las prestaciones.

‐  El coste.

‐  La fiabilidad.

Todos estos son aspectos que, posteriormente, habrá que reflejar en el informe de la investigación.

Análisis de datos

Se realiza mediante técnicas estadísticas. El procedimiento de recogida de datos que hayamos elegido determinará, en buena medida, las técnicas posibles a aplicar para analizar estos datos. De manera que las diferentes decisiones de diseño y planificación de una investigación son importantes porque afectan a distintas etapas del proceso.
FIN: Obtener resultados interpretables en relación con los objetivos de la investigación.

1o. ESTADÍSTICA DESCRIPTIVA: Organizar y describir los datos a través de puntuaciones resumen para que resulten manejables y más informativos.

I. Resumir los datos:

‐  Tablas de distribución de frecuencias o representaciones gráficas.

‐  Índices de tendencia central (media, mediana, moda) y posición (percentiles).

‐  Índices de variabilidad (varianza, desviación típica).

‐  Índices de asimetría (índice intercuartílico, índice de Fisher).

‐  Índices de apuntamiento (coeficiente de curtosis).

‐  Índices que informan de la relación entre variables (correlación, covarianza).

  • Buscar regularidades: Utilizando representaciones gráficas a través del análisis exploratorio.
  • Pronosticar resultados: A través de la regresión.

2o. PROBABILIDAD: Puente entre ambas estadísticas. Existen distintos modelos de distribución de probabilidad: Normal, Binomial, etc.

3o. ESTADÍSTICA INFERENCIAL: Permite considerar las posibilidades de generalización a la población desde la muestra, utilizando:

  • ‐  Estimación de parámetros (puntual, por intervalos).
  • ‐  Contraste de hipótesis (parámetros de confianza, estadísticos de contraste).o Estadístico de contraste: Medida estandarizada de la discrepancia que hay entre la hipótesis de partida que se hace sobre la población (hipótesis nula) y el resultado de la diferencia de medidas obtenido en la muestra.

Valor ≤ 0,05 ó 0,01 se rechaza la hipótesis nula se asume que hay diferencia entre los grupos hay efecto de la variable independiente.

Valor ≥ 0,05 ó 0,01 se mantiene la hipótesis nula no podemos concluir que las diferencias encontradas entre los grupos sean significativa no se atribuyen efectos relevantes a la variable independiente.

La elección del estadístico de contraste adecuado depende de las siguientes características:  Nivel de medida y tipos de variables.
 Independencia/dependencia de las observaciones.
 Aspectos de la distribución.

Tipos de estadísticos de contraste (a elegir según características):
 Paramétricos: Son los más usados en la investigación empírica.

 Permiten contrastar hipótesis referidas a algún parámetro poblacional.
 Requieren el cumplimiento de algunos supuestos que pueden resultar demasiado exigentes (ej: normalidad y distribución homogénea de las

varianzas u homocedasticidad).
 Es necesario trabajar con escalas de intervalo o de razón.

 No paramétricos: Cualquiera que no se ajuste a una de las 3 características de los contrastes paramétricos.

 Permiten poner a prueba hipótesis no referidas a un parámetro poblacional.
 No necesitan establecer supuestos exigentes sobre las poblaciones.
 No necesitan trabajar con datos obtenidos en una escala de intervalo o de razón.

1.3.4.1. Recogida y análisis de los datos. Ejemplo: Comparación de dos grupos en una variable

Planteamiento del problema o idea.

¿Existen diferencias entre las técnicas de inoculación de estrés (TIE) y las técnicas de relajación (TR) en cuanto

al control de la ansiedad precompetitiva en deportistas?

Formulación de la hipótesis de investigación.

“Si las TIE difieren de las TR en su eficacia, entonces estas técnicas producirán resultados diferentes en cuanto al control de la ansiedad precompetitiva (sujetos que utilicen TIE tendrán diferente ansiedad que los que empleen TR)”.

Procedimiento para la recogida de datos.

Muestra: Elección al azar de un grupo de corredores con elevada ansiedad precompetitiva (medida con

un test) que se asignan, aleatoriamente, a dos grupos.

Tarea: Medir la ansiedad precompetitiva tras aplicar, durante un mes, TIE a un grupo y TR al otro.

Variable dependiente: Puntuaciones obtenidas en el test que mide la ansiedad precompetitiva, tras el

mes de aplicación de los tratamientos.

Formulación de hipótesis estadísticas para poder analizar los datos.

Hipótesis nula: “No existen diferencias entre las medidas poblacionales de dos grupos, TIE y TR, en

ansiedad precompetitiva”. H0 = TIE = TR, o bien, H0 = TIE – TR = 0.

Hipótesis alternativa: “Existen diferencias entre las medidas poblacionales de los dos grupos, TIE y TR,

en ansiedad precompetitiva”.H1 = TIE ≠ TR, o bien, H1 = TIE – TR ≠ 0.

Obtención de datos mediante aplicación de condiciones experimentales: Tratamientos (TIE y TR), control de las

variables extrañas y aplicación del instrumento de medida para obtener datos de la variable independiente (test).

Análisis de datos: Se contrastan los datos de las hipótesis, con un determinado nivel de confianza o seguridad (probabilidad con la que podemos aceptar o rechazar las hipótesis: normalmente 0,05 ó 0,01), porque necesitamos un criterio para saber cuando la diferencia es relevante (estadística inferencial).

1.3.5. Interpretación de los resultados de la investigación

‐  Discusión: Pone en relación las hipótesis formuladas con los modelos teóricos y las investigaciones afines. Vincula los resultados de nuestra investigación con los conocimientos ya existentes.

o Magnitud del efecto.
o Tendencias o regularidades observadas.
o Comparación con otras investigaciones.
o Implicaciones y utilidad de los descubrimientos. o Análisis crítico de las limitaciones del estudio. o Sugerencia de nuevas vías de investigación.

‐  Conclusiones: Evaluación del alcance de los logros conseguidos.

1.3.6. Comunicación de los resultados de la investigación. INFORME

Es la etapa final del proceso de investigación. Sirve para que la persona que investiga transmita a la comunidad científica lo que ha hecho y cómo lo ha hecho (recibir una evaluación crítica y enriquecer el saber científico). Debe exponer, de forma sintética (breve), clara (directa) y comprensible (sencilla), métodos y resultados. Tipos: Escrito y Oral. Comprende: ponencias, artículos, memorias… Normas de redacción de la APA (American Psychological Association, 2009): PARTES

 Resumen (abstract): Síntesis de la investivación. 5-10 líneas. Aparece al principio del artículo.
 Introducción: Revisión bibliográfica + Hipótesis/Objetivos.
 Método: Pasos de la investigación.
 Análisis y resultados: Justificación de las técnicas estadísticas usadas y descripción de los resultados.  Discusión y conclusiones: Significado de los resultados respecto a las hipótesis + Conclusiones.

 Referencias bibliográficas (por orden alfabético de autoras y autores).

 Anexos o Apéndices (materiales, tablas extensas…).

La entrada La investigación científica en Psicología aparece primero en Psicocode.



from Psicocode https://ift.tt/2P3O6rp
via IFTTT

Teoria de la utilidad en la toma de decisiones

teoria-utilidad

Introducción

La toma de decisiones es un proceso que va más allá del juicio probabilístico, a pesar de que frecuentemente, ambas tareas se consideran equivalentes y se estudian juntas.

Algunos consideran el juicio como una etapa predecisional que se continua, aunque no siempre, con una elección entre las diferentes alternativas posibles.

En otros casos, la tarea de juicio no se lleva a cabo, por tratarse de una decisión sencilla en la que se dispone de toda la información.

Toma de decisión: proceso amplio que puede incluir la evaluación de alternativas, el juicio y la elección de alguna de ellas.

Este proceso abarca distintas tareas cognitivas, y es un proceso dinámico que varía a medida que se dispone de un conocimiento mayor, que surgen nuevas alternativas, o que varía la importancia de cada una de ellas.

Planteamiento general

A) PLANTEAR CON PRECISIÓN CUÁL ES LA DECISIÓN A TOMAR

Es necesario ser muy cuidadoso, pues el planteamiento de la decisión, determina las alternativas que se generan, lo que puede dar lugar a resultados completamente diferentes.

Está determinado por las metas de la persona.

Ante varias ofertas de trabajo, decidirán de forma distinta los sujetos con metas a corto plazo o a largo plazo.

Trabajos sobre elección: se asume que la respuesta óptima es la que ofrece mejor resultado a largo plazo, tras un número elevado de ensayos, a pesar de que las personas generalmente se plantean tareas a corto plazo, tratando de lograr el mejor resultado en el próximo ensayo.

Esta insensibilidad a las metas reales de las personas, ha dado lugar a la mayor parte de las críticas dirigidas hacia los modelos normativos.

B) GENERACIÓN DE ALTERNATIVAS

Tratar de no desechar ninguna alternativa a priori.

Las alternativas variarán en función del conocimiento y de los valores de la persona, así como de los factores socioculturales.

La investigación ha mostrado que las personas no tienen un buen rendimiento en ésta tarea, ya que no consideran todas las alternativas posibles.

Frecuentemente, la consideración de unas alternativas sobre otras, está determinada por la accesibilidad de la información.

Al decidir sobre varios productos las personas tienden a tener solo en cuenta la información que se presenta y solo en la forma en que se presenta.

C) EVALUACIÓN DE LAS DIFERENTES ALTERNATIVAS GENERADAS

Se evalúan de diferentes formas:

• La probabilidad de ocurrencia de cada una de ellas (en el caso de que se trate de una decisión con riesgo).

Las personas asignan probabilidades bastantes cercanas a las correctas cuando deben estimar la proporción relativa de un suceso que perciben directamente, aunque sea de forma rápida o subliminal.

Por el contrario, cuando las frecuencias relativas no se presentan y la persona ha de buscar ejemplos en su memoria, la precisión disminuye sustancialmente, y estas estimaciones de probabilidad se ven afectadas por el uso de heurísticos:

 Heurístico de representatividad:

Da lugar a juicios basados en la representatividad, que lleva a las personas a no contar con la suficiente información.

El inversor que sólo investiga las empresas con éxito, ignorando aquellas que han fracasado.

 Heurístico de accesibilidad:

Lleva a las personas a considerar sólo la información más accesible.

Considerar más probable una enfermedad de lo que es en realidad cuando es presentada de forma alarmante en los medios de comunicación.

 Principio de Pollyanna:

Tendencia a asignar probabilidades más altas a las alternativas más deseables y probabilidades bajas a las alternativas menos deseables.

Sobreestimar la probabilidad de ganar un premio en la lotería.

 Sesgo de sobreconfianza:

Exceso de confianza en el juicio emitido, sin percibir que no ha sido correcto.

 Sesgo de perspectiva o retrospectivo:

Creencia, una vez conocido el resultado, de que las cosas no podían suceder de otra forma y que ya lo habíamos predicho.

• Las consecuencias que pueden esperarse en el caso de que ocurran, pueden

asignarse en términos de ganancias o de pérdidas. 4 modelos de elección:

 Modelos de riesgo con un solo atributo:

Situaciones en las que existe incertidumbre sobre el resultado, lo que implica una elección de bajo riesgo, y un solo atributo a evaluar en cada alternativa, generalmente la ganancia o pérdida económica tras la ocurrencia o no de un suceso.

Ventaja: Control de variables extrañas del contexto y de la persona. Inconveniente: Son situaciones lejanas a las de la vida diaria.

 Modelos de riesgo multiatributo:

La decisión es más compleja y cada alternativa muestra una serie de atributos que también se darán de forma probabilística.

Son modelos complicados que, frecuentemente, se requiere la intervención de un experto en el tema sobre el que trata la decisión. La necesidad de evaluar simultáneamente las probabilidades y las consecuencias, se pone de manifiesto especialmente en decisiones que afectan a poblaciones.

Campañas de vacunación contra enfermedades cuya incidencia es bajísima, pero cuyas consecuencias son tan graves que no permiten correr riesgos.

 Modelos sin riesgo y un atributo:

La elección no conlleva riesgo, ya que, una vez seleccionada una de las alternativas, el resultado de ésta se dará con certeza (no es probabilístico).

 Modelos sin riesgo y multiatributo:

La elección no conlleva riesgo, ya que la alternativa elegida muestra una serie de atributos no probabilísticos. La importancia dada a cada atributo varía de una persona a otra y en la misma persona en distintas situaciones.

Ventaja: Son situaciones cercanas a las de la vida diaria.

Licenciado que evalúa sus alternativas de trabajo, cada una con una serie de atributos no probabilísticos (sueldo, horario, etc.).

Perspectiva Normativa

Una vez que la persona dispone de toda la información necesaria (alternativas, probabilidades y consecuencias), ha de elegir entre la alternativa que considera más adecuada. Existen una serie de modelos normativos que defiende cual es la elección óptima.

Los teóricos consideran las alternativas como si fuesen juegos o apuestas, y tratan de determinar cuál sería la mejor; los estudios sobre elección, suelen proponer tareas muy sencillas, con 2 alternativas de las que se conoce su probabilidad, así como la ganancia o pérdida a que darán lugar (consecuencias).

Teoría de la utilidad

Los primeros modelos normativos son estadísticos y conjugan en un modelo lineal la probabilidad y el valor de la alternativa, obteniéndose un valor esperado (Jacques Bernouilli) que, debería ser el más alto en la decisión óptima.

En la primera revisión, el valor objetivo de la alternativa se sustituyó por la utilidad esperada (Daniel Bernouilli) para la persona, dado que la misma ganancia puede no tener el mismo valor para distintas personas e incluso para el mismo sujeto en distintas situaciones. Este concepto incorpora las metas, expectativas y preferencias de las personas.

Según la teoría de la utilidad esperada, ante varias alternativas, la persona evalúa la probabilidad de que ocurra cada una de ellas y le asigna una puntuación en función de su utilidad en una situación concreta. La que maximice la utilidad esperada sería la elección más acertada. Esta sustitución del valor esperado por la utilidad esperada puede explicar el comportamiento de las personas en juegos de azar o decisiones sobre seguros de vivienda que no se explican adecuadamente desde la primera teoría.

Los autores sostienen que las personas:

  • están informadas de todas las alternativas existentes y de sus posibles consecuencias, y que además son sensibles a las diferencias que existen entre ellas
  • son racionales al ordenar estas alternativas y al elegir aquella que maximice lo que denominan utilidad esperadaLimitación: el principio de Bernoilli no ofrece una explicación de cómo se maximiza la utilidad de cada alternativa en una elección única.

Moderna teoría de la utilidad (Neumann y Morgenstern): Definen la función de la utilidad esperada como la suma de la utilidad de cada resultado multiplicada por su probabilidad. Si las preferencias de un individuo satisfacen ciertos axiomas básicos de la conducta racional podría decirse que su elección maximiza la utilidad esperada.

Axiomas propuestos:los importantes son el 2,3 y 5

(x,p,y) constituyen la alternativa A. Siendo A un conjunto de resultados posibles dentro de A puede establecerse un orden a partir de las preferencias de las personas (representada como >) o de la indiferencia (=) de forma que los posibles resultados x, y o z la relación de orden ha de satisfacer las leyes de la lógica:

– reflexividad: xx.
– conectividad: bien xy, ó yx, ó ambos
– transitividad: si xy e yz, esto implica que xz

[(x,p,y), q, y)] = (x, pq, y). Esto significa que un juego en el que

–  x se obtendría con probabilidad pq y el resultado y con probabilidad (1-pq) sería equivalente, en cuanto a preferencias, a otro juego más complejo en el que la probabilidad de jugar

–  (x,p,y) se daría con una probabilidad q y la posibilidad y se daría con probabilidad(1-q).

Este axioma afirmaría que las preferencias dependen sólo del resultado final y de su probabilidad asociada y no del proceso a través del cual se obtiene este resultado.

si x e y son dos resultados indiferentes podría sustituirse uno por el otro en cualquier juego y, finalmente, en cualquier tarea de elección. (x = y), entonces (x,p,z) = (y,p,z)

si x>y, entonces x > (x,p,y) > y. Si el resultado x se prefiere al resultado y, entonces x será preferido a cualquier apuesta o juego en los que x e y se den con cierta probabilidad, y esta apuesta será preferida al resultado y.

si x>y>z, entonces existe una probabilidad p de forma que y=(x,p,z). Con este axioma se relacionan los posibles resultados (sus ganancias y pérdidas) con sus probabilidades y se aprecia la forma en la que unos compensan a otros.

Aplicando estos axiomas los sujetos ordenan las alternativas y, de esta manera, pueden maximizar la utilidad de cada una de ellas (incluso en una elección única).

Principio general del modelo:La utilidad esperada de una alternativa es la suma de la utilidad de cada uno de sus resultados multiplicados por su probabilidad de ocurrencia. Es decir, la utilidad global de una alternativa está determinada por la utilidad de sus componentes

Ventaja: el modelo puede aplicarse a situaciones de una sola elección Limitación: las probabilidades objetivas no siempre pueden determinarse.

Teoría de la Utilidad Subjetiva Esperada

Savage sustituye la probabilidad objetiva por la probabilidad basada en las creencias u opiniones, asumiendo que no siempre se dispone de información objetiva. Incluye el principio aspecto cierto (sure- thing) que afirma que si dos alternativas comparten un resultado concreto, la preferencia que se establecerá entre las dos alternativas será independiente del valor de este resultado común, es decir, las personas descartarían el resultados seguro, ya que se dará en ambos casos, y basarían la elección en los posibles resultados diferentes entre las alternativas.

Estudia cómo se toman las decisiones en lugar de cómo deberían tomarse.

Únicamente se mantuvieron, como criterios para una decisión óptima, una serie de axiomas que establecían las relaciones entre las distintas probabilidades y entre las preferencias. La evidencia empírica pronto demostró que no se adaptaban las elecciones de las personas a los principios básicos:

  • no se aprecia transitividad en las preferencias, estableciéndose una circularidad entre ellas.
  • preferencia por la opción que comparta dos alternativas a las que inicialmente se les ha asignado distinto valor.
  • violaciones tanto del principio general propuesto por Neumann y Morgenstern, que afirmaba que la utilidad global de una alternativa estará determinada por la utilidad de sus componentes, como del principio sure-thing (Savage).
  • preferencia por la alternativa de ganancia cierta aunque su valor sea menor, lo contrario en el caso de pérdida (aversión y preferencia por el riesgo).1- a) ganar 4000 con una probabilidad 0.8 2-a) ganar 4000 con una probabilidad 0.2b) Ganar 3000 con una probabilidad 1 b) ganar 3000 con una probabilidad 0.25

    Resultados:

    • en el primer problema el 80% prefería la alternativa b) que presentaba una certeza mayor
    • en el segundo el 65% prefería la alternativa a), con un mayor riesgo pero con más ganancia
    • Sin embargo, cuando se presentan los mismos problemas en términos de pérdidas las preferencias se invierten. Así entre perder “4000 con probabilidad 0.8” ó “3000 con seguridad”, el 92% prefería la primera alternativa
    • entre perder “4000 con probabilidad 0.2” ó “3000c con probabilidad 0.25”, el 58% prefería la segunda alternativa

La aversión al riesgo observada cuando se trataba de ganancias estaría acompañada por una preferencia por el riesgo cuando se trataba de pérdidas, y viceversa; además, los sujetos parecen asignar un valor mayor a las pérdidas. Sin embargo, esta percepción del riesgo puede cambiar si se cambia el contexto de la tarea; cuando las probabilidades se mantienen constantes pero se introducen los resultados positivos del juego, la aversión al riesgo disminuye. Estos datos son incompatibles con los principios básicos de la teoría de la utilidad esperada que establecen valores absolutos para la utilidad y con la creencia sobre la deseabilidad de la certeza que produce tanta aversión en el caso de las pérdidas como apetencia en el caso de las ganancias

se consideran los atributos compartidos por dos alternativas (aspecto cierto), en lugar de tener en cuenta únicamente aquello que puede establecer diferencias.

el resultado varía en función de que la tarea se presente en forma de juicio o de elección, contradiciendo el principio de invarianza que establece que la relación entre preferencias no debe depender de la descripción de las opciones o del procedimiento utilizado.

Ejemplo página 385: en relación a los accidentes de tráfico ya la aplicación de un programa de prevención, se obtuvieron respuestas diferentes según el tipo de respuesta pedida. Los autores concluyen considerando que la elección es una tarea de razonamiento más cualitativa en la que se selecciona la alternativa con el valor más alto en el atributo más importante, mientras que en la tarea de juicios se evalúan y ponderan todos los atributos presentados

diferencia culturales en la percepción del riesgo:

– países occidentales: mayor peso a las probabilidades de las perdidas.

La percepción del riesgo disminuye cuando mejoran los resultados

– países orientales: mayor peso a la magnitud de las perdidas. La percepción del riesgo no disminuye cuando mejoran los resultados

Perspectiva Descriptiva

La perspectiva descriptiva trata de reflejar la estrategia seguida por el sujeto en su elección siguiendo también modelos matemáticos, en algunos casos, pero con variables más subjetivas.

Teoría de la perspectiva

Propuesta por Kahneman y Tversky considera aspectos como el marco o perspectiva de la persona y las manipulaciones contextuales. En el proceso de elección se distinguen dos fases:

Fase 1: revisión preliminar de las alternativas ofrecidas, que dará lugar a una representación más sencilla de las alternativas. Se aplican varias operaciones que transforman los resultados y las probabilidades asociadas:

–  Codificación: en términos de ganancias o pérdidas, influida por la formulación del problema y las expectativas de la persona.

–  Combinación de las probabilidades asociadas a resultados idénticos

–  Segregación de los aspectos ciertos y los que mantienen el riesgo

–  Cancelación de los componentes compartidos por todas las alternativas

–  Simplificación que redondea o elimina las alternativas muy poco probables

Fase 2: evaluación de las alternativas, que dará lugar a la elección de la alternativa con valor más alto. Estará en función de la probabilidad en el valor final y del valor subjetivo del resultado.

En esta teoría las estimaciones en el valor de una alternativa, son cambios en riqueza o en bienestar, en lugar de estados finales. Así, el valor podría ser tratado como una función de 2 aspectos:

posición inicial, que sirve como punto de referencia.

magnitud del cambio (positivo o negativo), desde el punto de referencia.

Con las 2 funciones que incorpora esta teoría, se puede asumir que en ocasiones el punto de referencia sobre ganancias o pérdidas dependa de las expectativas de la persona.

Cuando se gana menos de lo esperado la ganancia puede percibirse como una pérdida.

Además, se puede describir el efecto de algunas variables que también afectan a las elecciones, como las normas sociales, la prudencia o la importancia de la seguridad.

Teoría Portafolio

Teoría formulada por Coombs incluye el riesgo percibido de cada alternativa como un determinante de la elección de las personas. Las preferencias entre alternativa son en función de dos variables: el valor esperado y el riesgo percibido, de forma que cuando dos alternativas presentan el mismo valor esperado, la elección será función únicamente del riesgo. Sin embargo toda la validación de la teoría queda pendiente de la definición de riesgo admitida, realizándose asunciones sobre la definición subjetiva de riesgo con el fin de contrastar dicha teoría.

Se asume que el riesgo percibido de un juego de lanzamiento de moneda se incrementará con el tipo de moneda que se va a lanzar y con el número de lanzamientos en los que la persona va a participar. Las personas elegían distintos juegos en los que se iban variando ambas variables, demostrando que el riesgo percibido determinaba la preferencia mostrada por los sujetos.

Al contemplar el riesgo de juego, la teoría puede explicar por que las personas no cumplen el axioma 5 de la teoría de utilidad esperada, ya que se puede elegir una apuesta que contemple los dos resultados (en el que uno se prefiera claramente sobre el otro) si esta apuesta tiene menor riesgo que cada uno de los resultados.

Yates señala que la situación típica de decisión implica:

  • la promesa de una ganancia potencial de cierta cantidad, lo que constituye el valor esperado
  • el riesgo que, inicialmente, se define con su connotación de la vida diaria, es decir, la posibilidad de sufrir una pérdida.Aunque parece obvio que se preferirá una ganancia mayor sobre otra menor, no siempre puede afirmarse que se prefiera tan claramente la alternativa con menor riesgo. Responsable de salud públicaDe acuerdo con la teoría cualquier persona tiene un “nivel optimo de tensión entre la presión (de riesgo) que puede soportar y la ganancia que desea obtener”, es decir “de codicia y de miedo”. Cada persona tiene un nivel de riesgo máximo que puede soportar. Existe un umbral de aceptación de la alternativa en ambas dimensiones; para ser aceptable debería sobrepasar los dos umbrales. Cuando se han superado y nos enfrentamos a situaciones intermedias en las que un aumento de ganancia va acompañado de un riesgo mayor, se utilizan una seria de reglas o estrategias que no se ajustan a los modelos normativos.

Reglas y estrategias en situaciones multiatributos y sin riesgo

Descarta cualquier descripción matemática para tratar de identificar las estrategias empleadas. Simon propone el concepto de racionalidad restringida afirmando que

–  las limitaciones cognitivas inducen a las personas a construir modelos simplificados de los problemas.

–  Al simplificar la tarea de elección, se sustituiría el principio de maximización por el de satisfacción y,

–  clasificaríamos las alternativas como satisfactorias o no con respecto a cada uno de los atributos más relevantes.

Lo que cada persona considera satisfactorio puede cambiar con el tiempo y la experiencia, a medida que el nivel de aspiración aumente o no.

Objetivos:
1) descubrir qué operaciones y reglas elementales emplean los sujetos
2) que rasgos de la tarea y del contexto determinan la selección y uso de estas reglas

Con respecto al primer objetivo, reglas básicas:

Regla conjuntiva: eliminará cualquier alternativa que no sobrepase un valor criterio en alguna de las dimensiones. Elección de puesto de trabajo; se descartarían aquellos con sueldo bajo, lejos del domicilio o los que no resulten interesantes.

Regla disyuntiva: seleccionará cualquier alternativa que sobrepase un criterio al menos en una dimensión. Mantener la opción de la empresa propia por la posibilidad de tomar las propias decisiones, la opción opositar porque el trabajo es interesante, etc…

Regla lexicográfica: elegirá la alternativa superior en la dimensión más importante. Si se considera prioritario que el trabajo a realizar sea interesante se ignorará el resto de atributos como sueldo, horario, movilidad, para elegir la alternativa que más puntúa en dicha dimensión.

• Modelo de eliminación por aspectos (Tversky): Es una versión probabilística de la regla de la lexicografía. Contempla cada alternativa como un conjunto de atributos que pueden medirse describiendo la elección como un proceso de eliminación sucesiva de las alternativas en función de sus valores en dichos atributos. En cada estado del proceso se selecciona un aspecto de las alternativas y se elimina cualquiera de ellas cuando no incluya el atributo elegido y se va repitiendo el proceso hasta que solo queda una alternativa.

Elección de un restaurante:

• primer atributo: que sirvan un buen pescado, por tanto eliminamos hamburgueserías, pizzerías…

• segundo atributo: puede ser el rango de los precios, eliminando los que tengan precios más altos que los aceptables

• otro aspecto puede ser el tipo de local, etc., hasta que nos quede un solo restaurante como alternativa

El modelo puede justificar fácilmente sus elecciones y tiene gran poder explicativo, sin embargo no puede asegurar que las alternativas mantenidas sean superiores a las eliminadas.

En relación al segundo objetivo, clasificación de reglas básicas:

  • reglas compensatorias: una puntuación alta en una dimensión puede equilibrar la baja puntuación en otra dimensión. reglas de decisión aditivas: W = EV – kR,W sería la valía total de la alternativa; que tiene una ganancia potencial de EV y un riego potencial R. EL incremento de la ganancia potencial será mayor para una persona que tiene más aversión al riesgo que para una persona que muestra una mayor preferencia por el riesgo.
  • reglas no compensatorias: no permiten el intercambio entre distintas dimensiones  reglas lexicográficas: la fuerza en una dimensión no puede compensar la debilidad de otras

También se puede utilizar otro criterio de clasificación:

  • intraalternativas: consideran todos los atributos de cada alternativa antes de pasar a analizar la siguiente. Ejemplos de estas serían las reglas conjuntivas y las reglas compensatorias. Se examinaría cada posibilidad de trabajo detenidamente, comprobando que se tiene una puntuación suficiente en todas las dimensiones que se considera importantes
  • dimensionales: comparan el valor de todas las alternativas en cada una de las dimensiones. Ejemplos serían las reglas lexicográficas y las disyuntivas. Se tomaría una de las dimensiones, como el “interés por el trabajo a realizar”, y se selecciona aquellos puestos que ofrezcan puntuaciones más altas en este atributo.En una tarea de decisión las personas no usan una sola regla, sino que alternan varias. El uso de una u otra estrategia dependerá:
  • del análisis de la relación entre el coste de optimizar y el beneficio de simplificar el proceso
  • de procesos perceptuales cuando la selección se hace de forma no deliberada
  • de la existencia de sistemas de producción mediante reglas “si…, entonces”

La respuesta del sujeto generalmente depende de la representación de la tarea que está influida por el contexto.

La teoría de los modelos mentales

Esta teoría es más global, ya que puede aplicarse a situaciones con un solo atributo o multiatributo.

No distingue entre situaciones con o sin riesgo, ya que la persona construiría modelos mentales de cada una de las alternativas, sin evaluar detalladamente las probabilidades ni utilidades.

Se generarían las alternativas mediante los modelos mentales, y éstas se darían en función de las instrucciones o de la información del enunciado del problema. La respuesta se determina por las alternativas que se han generado.

Elección representada por 2 modelos:
• Explícito y exhaustivo: determina las alternativas generadas y, finalmente, la elección.

• Implícito: cuando la presentación del problema manipula el foco de atención de la representación del modelo mental explícito, se logra que se generen los modelos implícitos y que el sujeto considere las otras alternativas posibles.

Si la elección debe darse en situaciones en que la persona dispone de modelos igualmente salientes para todas las alternativas, es posible que elija la alternativa cuyo modelo resulte más atractivo, y ésta preferencia puede deberse a la presencia de un solo atributo que se considere especialmente relevante.

Las decisiones serán más difíciles a medida que aumente el número de modelos mentales necesarios en función de las alternativas de respuesta.

Tarea para decidir si ir o no al cine. Se logró descentrar el foco de atención de la acción (ir al cine) introduciendo un contexto (en el que se situaba al sujeto en una visita turística a Roma) que logró que los sujetos consideraran otras alternativas y que se pudieran generar los modelos mentales implícitos.

Aspectos colaterales

  • Las personas se sienten satisfechas con sus decisiones porque no conocen el resultado de decisiones alternativas y por la tendencia a eliminar la disonancia cognitiva.
  • La decisión no es un proceso estático, sino que debe considerarse repetidamente a medida que surgen nuevos elementos o varían las condiciones, especialmente si las decisiones son muy relevantes.
  • El estado anímico modifica la decisión.
  • El hecho mismo de estudiar el proceso de decisión en laboratorio, o la observación en ambiente natural, influye en dicha decisión.

La entrada Teoria de la utilidad en la toma de decisiones aparece primero en Psicocode.



from Psicocode https://ift.tt/2DdOrkJ
via IFTTT

Objetivos educativos y del aprendizaje

Objetivos Educativos

Objetivos del Aprendizaje

Orígenes

El interés por la determinación y definición de los objetivos educativos surge a partir de los 60, en pleno auge de la psicología conductista, al igual que el interés por la evaluación. Esta aparición tiene lugar como resultado de la confluencia de tres hechos principales.

Primero, los trabajos de Tyler, cuyos antecedentes se remontan a Bobbit, quien ya había señalado la necesidad de especificar los objetivos educativos en los programas de enseñanza. Tyler defendió que no era suficiente con enunciar los objetivos, sino que éstos deberían definirse en términos de conductas específicas. Este planteamiento culminó en los 50 con la obra Taxonomy of Educational Objetives sobre la necesidad definir con claridad y rigor los objetivos educativos.

En segundo lugar, los trabajos de un grupo de psicólogos tras la II GM para elaborar procedimientos eficaces de adiestramiento de personal militar. La especificación de las conductas u objetivos deseados mediante el análisis de tareas, se consideró el aspecto esencial para la determinación de los contenidos y la secuencia de los programas de entrenamiento.

Y tercero, la aparición de la enseñanza programada de Skinner a finales de los 50, que postula que el primer paso esencial para un programa de enseñanza es la especificación de los objetivos que determinen lo que los estudiantes deben ser capaces de hacer tras el aprendizaje.

Que la aparición del establecimiento de los objetivos tenga lugar en unos momentos en los que el conductismo dominaba va a determinar muchas de sus características y de las funciones que se le asignan a los objetivos. La denominación dada no ha sido uniforme: objetivos instruccionales; objetivos de aprendizaje; objetivos de instrucción; objetivos expresivos…

Funciones de los objetivos

La función general que cumplen los objetivos educativos es orientar y facilitar la actividad del profesor y del alumno en el proceso enseñanza/aprendizaje. Esta función puede descomponerse en dos grupos de funciones específicas, uno relativo al maestro y otro relativo a los estudiantes.

Con relación al maestro, Anderson y Faust señalan dos funciones que contribuyen a hacer más eficaz la actividad del profesor en el aula. Por un lado, los objetivos indican al maestro el punto al que debe llegar y el camino que debe seguir, lo que favorece que el maestro no pase por alto algo esencial para que los alumnos lleguen a dominar el objetivo.

Por otro, unos objetivos bien establecidos proporcionan al maestro un marco de referencia y criterios detallados para evaluar el rendimiento de los alumnos y para un control continuo de la calidad de la instrucción. Con relación a los alumnos, hay tres funciones de los objetivos: servir como guías de estudio, indicar con precisión al estudiante qué es lo que se espera que obtenga de la instrucción y proporcionarle criterios para que él mismo evalúe su propio progreso.

Gagné destaca dos funciones principales de los objetivos. Con relación a los maestros, sirven de fundamento para la planificación de la instrucción, la dirección de la enseñanza y verificar el desarrollo del aprendizaje.

Y con relación a los estudiantes, los objetivos constituyen un elemento importante para motivar su aprendizaje y para proporcionarles retroalimentación de los aprendizajes conseguidos. Y añade otras funciones en relación con la dirección del centro, que les proporciona un fundamento para la justificación de los programas educativos de los que ella es responsable, con los evaluadores, que sirven para definir los dominios y competencias que se deben valorar y con los padres, pues informan acerca de lo que sus hijos van a aprender o están aprendiendo

En resumen, los objetivos orientan tanto las actividades del maestro o profesor como las de los alumnos, tanto en la fase de adquisición de los conocimientos como en la fase de evaluación de los logros conseguidos. La actividad del profesor y la del aprendizaje del alumno para ser eficaces han de ir paralelas en la misma dirección.

Son necesarios para el profesor porque selecciona los contenidos y materiales del programa de las asignaturas y de las lecciones con la finalidad de que el alumno encuentre en ellos las informaciones y las experiencias necesarias para sus aprendizajes. Y son necesarios también porque ayudan a resolver el problema de la evaluación, tanto de los progresos conseguidos por alumnos como de la eficacia de las propias enseñanzas.

Para que los objetivos cumplan su función deben ser conocidos. La comunicación de los objetivos debe constituir el punto de partida de cada tema o lección. Unos objetivos claros y bien formulados al comienzo de una lección comunican lo que se espera que aprendan y les ayuda a discriminar las informaciones relevantes de las irrelevantes. El alumno debe conocer el tipo de conducta que el maestro usará como indicador de que el aprendizaje se ha producido.

Formulación de los objetivos

Los objetivos de aprendizaje son declaraciones explícitas de los que los alumnos deben ser capaces de hacer como resultado de la instrucción. Existen diferentes maneras de formular los objetivos: desde formulaciones conductistas a cognitivas y desde definiciones generales a específicas.

OBJETIVOS CONDUCTUALES VS OBJETIVOS COGNITIVOS

Tyler encontró dificultades para evaluar la eficacia de un grupo de escuelas de orientación progresiva y vio que el principal problema era determinar el grado en que las escuelas lograban sus objetivos ya que éstos no habían sido definidos con claridad.

Defendió que los objetivos deberían ser definidos en términos conductuales, como conductas específicas. Se debían presentar en términos de lo que el estudiante debía ser capaz de hacer o de decir como resultado del aprendizaje.

Mager estableció de forma definitiva la manera de formular los objetivos conductuales para ser usados con eficacia por los profesores. Un objetivo debe especificar tres elementos:

1. La conducta observable que se espera del alumno como demostración de que domina la materia. La descripción de dicha conducta debe ser precisa y medible, jugando un papel esencial el verbo principal incluido en el enunciado.

Dicen Gagné y Briggs que la elección de los verbos al definir un objetivo es fundamental. Verbos como “conocer”, “comprender” o “parecer” no serían válidos, pues no expresan de manera inequívoca lo que se espera del alumno y además son susceptibles de interpretaciones diferentes. Pero verbos como “definir”, “escribir” “dibujar” permiten describir el objetivo como conductas observables.

2. La descripción de las condiciones en que tendrá lugar dicha conducta y será valorada. La descripción de estas condiciones sirven al profesor para sus enseñanzas y para la selección de actividades instruccionales. Ej: si será una exposición oral, si se pueden utilizar materiales…

3. La especificación del criterio que sirva de base para determinar que la ejecución es aceptable, y en consecuencia, que se ha alcanzado el objetivo. Ej: el número de aciertos debe ser superior al 90%.

Mager recomendaba que los objetivos fueran enunciados de manera conductual, es decir, de manera observable y medible para que pudiera ser comparada con un determinado criterio que sirviera de referencia para su valoración.

Con la llegada de la psicología cognitiva, surgen voces contrarias aduciendo que ignoran las adquisiciones y cambios cognitivos que se esperan como resultado del aprendizaje.

Novak señala que una lista de objetivos de aprendizaje definidos conductualmente es útil para la planificación de la instrucción y la evaluación, pero ignora la función de la estructura cognitiva diferenciada como mediadora del aprendizaje.

Los objetivos conductuales presentan el problema de que no consideran los conceptos que han de ser aprendidos ni las relaciones jerárquicas entre ellos, pasando por alto los aspectos intelectuales centrales en el aprendizaje significativo.

OBJETIVOS GENERALES VS OBJETIVOS ESPECÍFICOS

Antes de la aparición de este movimiento, los objetivos se formulaban de una manera tan general que eran vagos e imprecisos. Los objetivos, pues, para ser útiles, necesitan definirse de manera que expresen su meta de una manera precisa, esto ocurrirá en la década de los 60. La evaluación era más fácil si se contaba con un número abundante de objetivos específicos. El resultado fue que empezó a cobrar fuerza en la enseñanza el deseo de contar con largas listas de objetivos pormenorizados.

Pronto surgen opiniones en contra de la excesiva especificidad de los objetivos, presentándose el problema relativo al grado de especificidad o de generalidad con que deben describirse los objetivos educativos. Hay autores que opinan que la pormenorización de los objetivos trivializa el proceso educativo, ya que termina por describir conductas vacías o escasamente relevantes.

En esta línea se encuentra Eisner, que bajo la denominación de objetivos expresivos, defiende que los objetivos deben definir la actividad que se persigue en el alumno pero sin llegar a especificar los resultados de todas las actividades ni cree que sea práctico, ya que el profesor no necesita prever desde un principio toda la variedad de resultados. Los objetivos expresivos según Eisner son más evocativos que prescriptivos.

Gronlund ofrece una armonía entre las polaridades conductuales-cognitivos y entre generales-específicos al defender que los objetivos deben ser formulados, en principio, en términos generales, y que el profesor debe aclarar luego su significado con ej de conductas que puedan ser prueba de que el alumno los ha alcanzado (ver cuadro 16.1.).

Éste es el procedimiento que se utiliza normalmente para la formulación de objetivos desde un enfoque cognitivo y que está en relación con la distinción que algunos autores hacen entre comportamiento inferido y comportamiento observable. Detrás de cada respuesta manifiesta siempre hay un proceso interno que puede constituir el resultado más importante de la enseñanza. Y cuanto más compleja sea la función intelectual, más difícil será encontrar un indicador observable.

Taxonomías de los objetivos educacionales

Clasificación de Bloom

Los trabajos de Bloom y los de Gagné tienen su fundamentación situada en un terreno intermedio entre el conductismo y el cognitivismo. Su intención a la hora de elaborar la taxonomía era organizar y presentar los objetivos de manera que su evaluación pudiese llevarse a cabo sin ambigüedades.

Ámbito cognitivo

Es el grupo de objetivos mejor desarrollado. Se refiere al reconocimiento y retención de conocimientos, así como al desarrollo de habilidades intelectuales. Se distinguen seis categorías organizadas jerárquicamente en un continuo que va desde lo simple a lo complejo y de lo menos a lo más abstracto:

1. Conocimiento. Los objetivos de esta categoría se refieren a la capacidad de memorizar o reconocer los elementos específicos de la materia sin necesidad de entenderlos o utilizarlos. Se incluyen tres clases de conocimientos: de datos específicos (terminología datos…), de formas y de medios para trabajar con los datos específicos (reglas, categorías…) y de universales y formulaciones abstractas de una determinada materia (principios, generalizaciones…).

2. Comprensión. Consisten en que el alumno entienda el material o la información que se le comunica y en la percepción que implica esa información. Clases de operaciones: traducción (expresar la información con palabras diferentes), interpretación (ir más allá del reconocimiento) y extrapolación (inferir consecuencias).

3. Aplicación. Los alumnos deben ser capaces de usar y aplicar los conceptos, principios y teorías a situaciones particulares y concretas. Son aplicados a la resolución de problemas. Se considera uno de los objetivos más complejos y difíciles y con frecuencia se considera indicador de que el alumno ha comprendido el tema.

4. Análisis. Dividir un todo en su componente de manera que el alumno sea capaz de percibir los elementos de un todo y la relación entre ellos. Implica que el alumno sepa clasificar y descubrir los elementos en sus distintos componentes y la relación que existen entre ellos. Clases de análisis: análisis de elementos, análisis de relaciones y análisis de principios organizativos.

5. Síntesis. Contrario al análisis, es la capacidad para agrupar los elementos en un todo y combinarlos. Clases de síntesis: producción de una idea única, producción de un plan o un conjunto de operaciones y derivación de un conjunto de relaciones abstractas.

6. Evaluación. Es la capacidad de elaborar juicios fundados en un análisis de los pros y los contras de la información. Requiere la posesión de conocimientos y de criterios que sirvan de base a los juicios que se formulan. Clases de juicios: juicios basados en la evidencia interna (en la precisión y en la consistencia lógica de la información) y juicios basados en criterios externos (en razones que proceden de otros campos pertinentes).

Ámbito afectivo

Este grupo es referido fundamentalmente a actitudes y valores. Incluye cinco categorías organizadas jerárquicamente:

1. Recibir (atender). Consiste en el desarrollo de la sensibilidad para percibir estímulos. Tiene 3 subcategorías: consciencia (de que hay estímulos más valiosos que otros), voluntad de recibir y atención selectiva.

2. Responder. Consiste en aprender a emitir una respuesta voluntaria ante los estímulos, acompañada de un componente emocional. Subcategorías: aquiescencia o consentimiento (aceptar que hay estímulos relevantes), voluntad de responder y satisfacción (agrado por responder de una manera concreta).

3. Valorar. Aprender a apreciar el valor que pueden tener los estímulos. Implica la interiorización del valor y la manifestación de una conducta coherente con valor apreciado. Subcategorías: aceptación de un valor, preferencia por un valor y compromiso personal (expresarse y actuar de acuerdo al valor).

4. Organización. Integrar los valores dentro de un sistema organizado, lo que incluye establecer relaciones y prioridades entre ellos. Subcategorías: conceptualización de un valor (descubrir relaciones entre valores) y organización de un sistema de valores.

5. Caracterización por el valor. Crear un sistema de valores, creencias y actitudes en un todo coherente. Subcategorías: disposición general o predisposición a actuar de una determinada manera y caracterización.

Ámbito Psicomotor

Es un material menos elaborado por Kibler, Barrer y Miles. Aunque las habilidades no las presentan de forma jerarquizada, su ordenación está basada en el desarrollo psicomotor del niño. Son cuatro fases que tienen lugar durante los años de la educación infantil y lo primeros años de primaria:

1. Movimientos corporales poco diferenciados. Implica movimientos de miembros aislados del cuerpo o en conjunción con otras partes del cuerpo (andar, saltar, nadar…). Los objetivos se centran en la fuerza, la velocidad y la precisión. Son movimientos en los que se implican los miembros superiores, en los que se implican los miembros inferiores y en los que se encuentran implicados dos o más unidades del cuerpo.

2. Movimientos coordinados con precisión. Son movimientos coordinados de extremidades, vista y oído (escribir, pintar…). Son movimientos mano–dedo, coordinación mano–ojo, coordinación mano–oído, coordinación mano–ojo–pie y combinación de movimientos coordinados.

3. Comunicación no verbal. Los objetivos se centran en comunicar mensajes (alegría, tristeza…). Son expresiones faciales, gestos y movimientos corporales.

4. Habla. Se refiere a los movimientos implicados en la comunicación oral (hablar en público, adaptar la voz….). Son producción de sonidos, producción de los sonidos de las palabras, proyección del sonido y coordinación de sonidos y gestos.

La clasificación de Harrow abarca una serie de movimientos que van desde el nivel elemental al más elevado:

1. Movimientos reflejos: son los que se producen de manera involuntaria en respuesta a algún estímulo (estirarse, pestañear…).

2. Movimientos fundamentales básicos: movimientos integrados por una combinación de los reflejos (caminar, saltar…)

3. Capacidades perceptuales: son respuestas a determinados estímulos (coger una pelota en movimiento…).

4. Capacidades físicas: necesarios para desarrollar movimientos que requieren una mayor destreza (levantamiento de pesos…).

5. Movimientos diestros: movimientos complejos necesarios para ejecutar acciones con eficacia como en el deporte, la danza…

6. Expresión corporal: capacidad de comunicarse mediante gestos. Ej: expresiones faciales.

Clasificación de los objetivos por los resultados del aprendizaje: Gagné

Para Gagné, la mejor forma de planificar la enseñanza consiste en empezar por determinar los objetivos educativos, pues con ello se consigue que cada aprendizaje reciba el tratamiento didáctico conveniente, que se eviten repeticiones en el Currículo escolar y que la evaluación de los resultados se realice sistemáticamente.

Para él los objetivos del aprendizaje están relacionados con los resultados del mismo: se derivan de ellos. Agrupa los objetivos en las mismas categorías que utilizó para los tipos de resultados de aprendizaje y que son:

1. Información verbal. Consiste en la adquisición y retención de hechos, definiciones, principios, etc., que son básicos para el aprendizaje. Se encuentran almacenados en nuestra memoria.

2. Habilidades intelectuales. Son las capacidades que hacen competente al hombre y lo habilitan para responder a las conceptualizaciones de su medio. Van desde las habilidades más elementales del lenguaje hasta las más avanzadas.

3. Estrategias cognitivas. Son las capacidades que gobiernan el aprendizaje del individuo, su retentiva y conducta de pensar. Son las estrategias que necesita el alumno para captar la información, modificarla y aplicarla a situaciones nuevas.

4. Actitudes. Constituye el núcleo del dominio afectivo. Se espera que en la escuela se aprendan las socialmente estimadas, así como las positivas hacia el conocimiento, aprendizaje y autoestima.

5. Habilidades motoras. Muchas deben aprenderse también en la escuela, y en algunos casos son necesarias para aprender y exponer lo aprendido.

Según Gagné, una lección tiene un solo objetivo fundamental y suele tener varios objetivos secundarios.

La determinación de los objetivos del aprendizaje mediante el Análisis de Tareas

El análisis de tareas fue ideado por Miller durante la II GM para el entrenamiento del ejército de EEUU. Implica preguntarse por el objetivo último de la enseñanza de un determinado programa, y luego identificar y especificar los objetivos previos que se requieren para llegar a ese objetivo fundamental. Es decir, implica una descripción detallada de las habilidades que comprende una tarea, establecer sus relaciones y el orden y la función que cada una desempeña en la tarea propuesta.

Gagné distinguió ocho tipos de aprendizajes jerarquizados desde lo simple a lo complejo: 1) aprendizaje de señales, 2) aprendizaje de estímulos y respuestas, 3) encadenamiento, 4) asociación verbal, 5) discriminación múltiple, 6) aprendizaje de conceptos, 7) aprendizaje de principios y 8) resolución de problemas.

Cada tipo de aprendizaje implica diferentes tipos de capacidades mentales, cuyo aprendizaje requiere el aprendizaje previo de las capacidades implicadas en los tipos inferiores (ver cuadro 16.3.). Al proponer esta jerarquización, Gagné defiende que la enseñanza debe comenzar con las tareas de aprendizaje más sencillas y luego avanzar paso a paso.

Anderson y Faust dicen que la estrategia para hacer un análisis de tareas consiste en identificar los pasos o comportamientos intermedios que el estudiante debe conseguir para avanzar desde el nivel de su comportamiento de entrada o inicial hasta el comportamiento final deseado. Un requisito importante es que se incluyan todos los componentes de la tarea necesarios para realizarla con éxito.

Otra observación es que la subdivisión debe ser lo suficientemente detallada como para que el alumno llegue a ser capaz de ejecutar directamente una subhabilidad cuando se le pida. Otra observación es que hay que tener presente a las subhabilidades no pueden aprenderse en cualquier orden; unas veces la secuencia será lineal, y en otras podemos encontrar subtareas, todas necesarias, pero que no se subordinan unas a otras.

De todas formas, disponer de un diagrama en el que se identifiquen las habilidades implicadas en el objetivo final con sus correspondientes subhabilidades será sumamente valioso para definir los objetivos y para planificar la lección.

En resumen, el análisis de tarea es un procedimiento que consiste en analizar las habilidades y subhabilidades que conducen a un objetivo final y luego ordenar secuencialmente los pasos –objetivos previos – que el alumno debe ir dominando para llegar al objetivo final. Tiene el mismo fundamento que la enseñanza programada.

La entrada Objetivos educativos y del aprendizaje aparece primero en Psicocode.



from Psicocode https://ift.tt/2PsXVi1
via IFTTT

Estrategias para mejorar el ambiente laboral

ambiente-laboral

La atención psicológica es indispensable en cualquier área, en especial si se trata de una evaluación del ambiente de trabajo y los efectos que genera en el desempeño del equipo o el individuo. Hacer un análisis para detallar los niveles de estrés o las causas de los conflictos laborales es fundamental en una empresa.

Identificar las irregularidades y ofrecer soluciones a los empleados es de vital importancia para mantener un clima laboral estable y que propicie mejores resultados para la empresa.

Herramientas para mejorar el ambiente de trabajo

Los empleos no deben ser vistos como una obligación que produzca molestias, mucho menos como un factor de estrés constante, ya que los efectos negativos que puede generar esa realidad influirá en la vida diaria de la persona y también en los resultados de la empresa.

Una estrategia efectiva para cambiar el desequilibrio laboral es Mindfulness, porque evalúa todos las características que componen el ambiente de trabajo y presenta un informe detallado con las acciones que deben ser aplicadas para lograr generar otro tipo de resultados en el desarrollo diario.

El Mindfulness aumenta el bienestar de las personas y además, entrega elementos que se pueden aplicar para mejorar el proceso interpersonal entre los empleados. Desarrollar la inteligencia emocional y dejar a un lado las reacciones negativas dentro del ambiente de trabajo es parte de los beneficios que tiene entre sus opciones, esta estrategia psicológica.

Las grandes industrias tienen como característica principal una cantidad elevada de trabajadores, razón por la que es indispensable buscar herramientas como estas para analizar las diferentes áreas y propiciar el desarrollo psicológico de los empleados.

En Madrid, existe un gran número de industrias que pueden hacer uso del servicio y evaluar los resultados comparando el desarrollo laboral de los trabajadores y los resultados en producción. Asimismo, existen equipos preparados, como centromindfulnessmadrid.com, para afrontar cualquier tipo de irregularidades y presentar un cambio efectivo.  

Preservar la felicidad de los trabajadores, así como también reducir los niveles de estrés, mejorar la concentración de los empleados y su calidad de vida, presentar técnicas para mejorar la interacción entre ellos y obtener mejores resultados, es parte de las bondades del Mindfulness. Además, es un proceso aprobado por una serie de instituciones especializadas en el área de la salud y aplicado en grandes empresas.   

¿Cómo evitar los problemas laborales?

Los problemas propiciados por un ambiente laboral irregular pueden generar una serie de consecuencias importantes para los trabajadores y el rendimiento de la organización. La evaluación periódica del comportamiento de los empleados y tratar de disminuir los niveles de estrés y ansiedad, es indispensable.

Las terapias de grupo para fortalecer el equipo de trabajo, disminuir los problemas interpersonales y propiciar respuestas a través de distintas herramientas psicológicas, son factores que deben ser vistos por las grandes empresas como primordial, en vista de la importancia que tiene mantener a los empleados en un clima estable.

Para lograr obtener los resultados deseados, no solo es necesario realizar las actividades correspondientes dentro del equipo, también es esencial tener una organización que se encargue de aplicar los correctivos y hacer una evaluación general que servirá de base para ubicar las soluciones requeridas. En ese orden de ideas, es recomendable acudir a especialistas como Gabinete Ipsia, en búsqueda de estas mejoras.

Las grandes empresas, en especial en la ciudad de Madrid, requieren de trabajos para identificar los conflictos laborales. Para obtener esos resultados es necesario tener una organización con psicólogos especializados en todas las áreas e incluir dentro del servicio, el mindfulness como la herramienta destacada para aplicar los correctivos necesarios y consolidar los objetivos.

Es importante recordar que un ambiente de trabajo sano, es la clave para obtener resultados positivos, las revisiones periódicas del funcionamiento de los equipos son importantes, porque permiten atacar los desequilibrios que se puedan presentar dentro de la empresa, así como también el análisis particular de los empleados que de forma involuntaria promueven un ambiente laboral poco grato.

De igual forma, pueden ser los trabajadores de manera individual quienes asistan a los distintos talleres para lograr evadir los problemas y obtener resultados que mejoren sus niveles de bienestar, para así obtener mejores resultados en el desarrollo de vida diaria

La entrada Estrategias para mejorar el ambiente laboral aparece primero en Psicocode.



from Psicocode https://ift.tt/2DeQFAi
via IFTTT