Información

Construya un modelo para explicar los datos

Construya un modelo para explicar los datos


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

No soy estudiante de psicología, pero estoy haciendo un experimento subjetivo que es similar a la estimación de magnitud: simplemente mida el efecto de diferentes estímulos a través de un número del 1 al 10.

Ahora necesito construir un modelo para explicar esos números, es decir, por qué diferentes patrones corresponden a diferentes números. Lo encuentro tan difícil y vago que realmente no sé cómo proceder. Cualquier modelo matemático complicado puede explicar muy bien los datos. ¿Está basado en evidencia biológica?


No está claro lo que estás preguntando. En general, los psicólogos intentan construir modelos parsimoniosos; esto a menudo significa solo introducir nuevos parámetros (particularmente parámetros libres) en un modelo cuando son absolutamente necesarios. Tiene razón en que con una cantidad suficiente de parámetros libres, se puede construir un modelo que se ajuste perfectamente a los datos. Pero tal modelo no tiene posibilidad de generalización: si sobreajusta su modelo a sus datos, el modelo predecirá datos novedosos muy mal.

Además, se prefiere un modelo cuando sus parámetros tienen cierta plausibilidad psicológica. Es decir, un parámetro del modelo debe corresponder a algún constructo psicológico (por ejemplo, capacidad de memoria de trabajo, ruido neuronal, etc.). Esto es particularmente importante porque les dice a los psicólogos algo sobre la cognición y el comportamiento, que a menudo es el objetivo. Si los parámetros de un modelo son completamente arbitrarios, no siempre está claro lo que aprendemos de él.

De nuevo tiene razón en que la elección de cómo modelar los datos psicológicos sigue siendo vaga. Muchos eligen entre cualquier número de formalismos, como redes neuronales o sistemas simbólicos, y es común que un fenómeno se modele de muchas formas diferentes. De hecho, gran parte de la literatura sobre modelos cognitivos está llena de numerosos enfoques para el mismo problema, y ​​cada autor argumenta a favor de su propio enfoque.

La mejor manera de averiguar cómo modelar sus datos es leer otros artículos que modelen las mismas o similares tareas. Observe lo que han hecho otros investigadores y evalúe los méritos de su enfoque. Si es posible, lea varios artículos que modelen la misma tarea de diferentes maneras (a menudo, los investigadores de campos opuestos se citarán entre sí).


El fin de la teoría: la avalancha de datos hace obsoleto el método científico

Para revisar este artículo, visite Mi perfil y luego Ver historias guardadas.

Para revisar este artículo, visite Mi perfil y luego Ver historias guardadas.

Ilustración: Marian Bantjes & quotTodos los modelos son incorrectos, pero algunos son útiles. & quot

Así lo proclamó el estadístico George Box hace 30 años, y tenía razón. Pero, ¿qué opción teníamos? Solo los modelos, desde ecuaciones cosmológicas hasta teorías del comportamiento humano, parecían ser capaces de explicar de manera consistente, aunque imperfecta, el mundo que nos rodea. Hasta ahora. Hoy en día, empresas como Google, que han crecido en una era de datos enormemente abundantes, no tienen que conformarse con modelos incorrectos. De hecho, no tienen que conformarse en absoluto con modelos.

Hace sesenta años, las computadoras digitales hicieron que la información fuera legible. Hace veinte años, Internet lo hizo accesible. Hace diez años, los primeros rastreadores de motores de búsqueda lo convirtieron en una única base de datos. Ahora Google y empresas afines están examinando la época más mesurada de la historia, tratando este enorme corpus como un laboratorio de la condición humana. Son los hijos de la Era de los Petabytes.

La era de los petabytes es diferente porque más es diferente. Los kilobytes se almacenaron en disquetes. Los megabytes se almacenaron en discos duros. Los terabytes se almacenaron en matrices de discos. Los petabytes se almacenan en la nube. A medida que avanzábamos en esa progresión, pasamos de la analogía de la carpeta a la analogía del archivador, a la analogía de la biblioteca, bueno, en petabytes nos quedamos sin analogías organizativas.

En la escala de petabytes, la información no es una cuestión de orden y taxonomía tridimensional y tetradimensional simple, sino de estadísticas dimensionalmente agnósticas. Requiere un enfoque completamente diferente, uno que nos obligue a perder la atadura de los datos como algo que se puede visualizar en su totalidad. Nos obliga a ver los datos matemáticamente primero y a establecer un contexto para ellos más tarde. Por ejemplo, Google conquistó el mundo de la publicidad con nada más que matemáticas aplicadas. No pretendía saber nada sobre la cultura y las convenciones de la publicidad, simplemente asumía que mejores datos, con mejores herramientas analíticas, ganarían el día. Y Google tenía razón.

La filosofía fundadora de Google es que no sabemos por qué esta página es mejor que esa: si las estadísticas de los enlaces entrantes dicen que sí, eso es lo suficientemente bueno. No se requiere ningún análisis semántico o causal. Esa es la razón por la que Google puede traducir idiomas sin realmente "conocerlos" (si se dan los mismos datos de corpus, Google puede traducir el klingon al farsi con la misma facilidad con la que puede traducir el francés al alemán). Y por qué puede hacer coincidir los anuncios con el contenido sin ningún conocimiento o suposición sobre los anuncios o el contenido.

Peter Norvig, director de investigación de Google & # x27s, ofreció una actualización de la máxima de George Box & # x27s en la Conferencia de Tecnología Emergente O & # x27Reilly: "Todos los modelos están mal y cada vez más se puede tener éxito sin ellos".

Este es un mundo en el que cantidades masivas de datos y matemáticas aplicadas reemplazan cualquier otra herramienta que pueda aplicarse. Fuera toda teoría del comportamiento humano, desde la lingüística hasta la sociología. Olvídese de la taxonomía, la ontología y la psicología. ¿Quién sabe por qué la gente hace lo que hace? El caso es que lo hacen y nosotros podemos rastrearlo y medirlo con una fidelidad sin precedentes. Con suficientes datos, los números hablan por sí mismos.

Sin embargo, el gran objetivo aquí no es la publicidad. Es ciencia. El método científico se basa en hipótesis comprobables. Estos modelos, en su mayor parte, son sistemas visualizados en la mente de los científicos. Luego, los modelos se prueban y los experimentos confirman o falsifican los modelos teóricos de cómo funciona el mundo. Esta es la forma en que la ciencia ha funcionado durante cientos de años.

Los científicos están entrenados para reconocer que la correlación no es causalidad, que no se deben sacar conclusiones simplemente sobre la base de la correlación entre X e Y (podría ser simplemente una coincidencia). En cambio, debe comprender los mecanismos subyacentes que conectan los dos. Una vez que tenga un modelo, puede conectar los conjuntos de datos con confianza. Los datos sin un modelo son solo ruido.

Pero frente a datos masivos, este enfoque de la ciencia (formular hipótesis, modelar, probar) se está volviendo obsoleto. Considere la física: los modelos newtonianos eran aproximaciones burdas de la verdad (incorrectas a nivel atómico, pero útiles). Hace cien años, la mecánica cuántica basada en estadísticas ofrecía una mejor imagen, pero la mecánica cuántica es otro modelo y, como tal, también tiene fallas, sin duda una caricatura de una realidad subyacente más compleja. La razón por la que la física se ha convertido en especulaciones teóricas sobre norte-Modelos grandes unificados dimensionales durante las últimas décadas (la fase de & quot; hermosa historia & quot de una disciplina hambrienta de datos) es que no sabemos cómo ejecutar los experimentos que falsificarían las hipótesis - las energías son demasiado altas, los aceleradores demasiado caros , etcétera.

Ahora la biología va en la misma dirección. Los modelos que nos enseñaron en la escuela sobre genes "dominantes" y "recesivos" que dirigen un proceso estrictamente mendeliano han resultado ser una simplificación de la realidad aún mayor que las leyes de Newton. El descubrimiento de las interacciones gen-proteína y otros aspectos de la epigenética ha desafiado la visión del ADN como destino e incluso ha introducido evidencia de que el medio ambiente puede influir en los rasgos heredables, algo que alguna vez se consideró una imposibilidad genética.

En resumen, cuanto más aprendemos sobre biología, más nos alejamos de un modelo que pueda explicarlo.

Ahora hay una forma mejor. Los petabytes nos permiten decir: "La correlación es suficiente". Podemos dejar de buscar modelos. Podemos analizar los datos sin hipótesis sobre lo que podrían mostrar. Podemos arrojar los números a los clústeres informáticos más grandes que el mundo haya visto y permitir que los algoritmos estadísticos encuentren patrones donde la ciencia no puede.

El mejor ejemplo práctico de esto es la secuenciación de genes escopeta de J. Craig Venter. Habilitado por secuenciadores de alta velocidad y supercomputadoras que analizan estadísticamente los datos que producen, Venter pasó de secuenciar organismos individuales a secuenciar ecosistemas completos. En 2003, comenzó a secuenciar gran parte del océano, volviendo sobre el viaje del Capitán Cook. Y en 2005 comenzó a secuenciar el aire. En el proceso, descubrió miles de especies de bacterias y otras formas de vida previamente desconocidas.

Si las palabras "descubrir una nueva especie" le recuerdan a Darwin y los dibujos de pinzones, es posible que esté atrapado en la antigua forma de hacer ciencia. Venter no puede decirle casi nada sobre las especies que encontró. No sabe cómo son, cómo viven ni mucho más sobre su morfología. Ni siquiera tiene su genoma completo. Todo lo que tiene es una señal estadística, una secuencia única que, al ser diferente a cualquier otra secuencia en la base de datos, debe representar una nueva especie.

Esta secuencia puede correlacionarse con otras secuencias que se asemejan a las de las especies de las que sabemos más. En ese caso, Venter puede hacer algunas conjeturas sobre los animales: que convierten la luz solar en energía de una manera particular o que descienden de un ancestro común. Pero además de eso, no tiene mejor modelo de esta especie que el que tiene Google de su página de MySpace. Son solo datos. Sin embargo, al analizarlo con recursos informáticos de calidad de Google, Venter ha avanzado en biología más que nadie de su generación.

Este tipo de pensamiento está listo para generalizarse. En febrero, la National Science Foundation anunció el Cluster Exploratory, un programa que financia la investigación diseñada para ejecutarse en una plataforma informática distribuida a gran escala desarrollada por Google e IBM en conjunto con seis universidades piloto. El clúster constará de 1.600 procesadores, varios terabytes de memoria y cientos de terabytes de almacenamiento, junto con el software, incluido IBM & # x27s Tivoli y versiones de código abierto de Google File System y MapReduce. 1 1 1 Los primeros proyectos de CluE incluirán simulaciones del cerebro y el sistema nervioso y otras investigaciones biológicas que se encuentran en algún lugar entre el software y el software.

Aprender a usar una "computadora" de esta escala puede ser un desafío. Pero la oportunidad es grandiosa: la nueva disponibilidad de enormes cantidades de datos, junto con las herramientas estadísticas para procesar estos números, ofrece una forma completamente nueva de entender el mundo. La correlación reemplaza a la causalidad, y la ciencia puede avanzar incluso sin modelos coherentes, teorías unificadas o realmente sin ninguna explicación mecanicista.

No hay razón para aferrarse a nuestras viejas costumbres. Es hora de preguntar: ¿Qué puede aprender la ciencia de Google?


Investigación sobre la base de la teoría anterior

Muchos de los problemas de la investigación exploratoria pueden evitarse si el investigador puede comenzar con un modelo, desarrollado en estudios anteriores, que utiliza como "hipótesis de trabajo". El modelo puede constar de casos (modelo holístico) o de conceptos (modelo analítico). Durante el análisis, el investigador trata de ver si el material recolectado se ajusta al modelo o debe corregir el modelo o buscar uno más adecuado.

A menudo, el estudio simplemente prosigue ampliando un modelo anterior. Una buena regla a seguir en tal situación es: Empiece por lo conocido. Continúe ampliando el área cartografiada y conecte la nueva inteligencia con los hechos conocidos. A veces, todo lo que necesita es solo un ajuste de algunos detalles en el modelo existente. Este es a menudo el caso cuando el estudio debe dar base para un pronóstico o el desarrollo de un nuevo producto y el entorno de aplicación prevista es ligeramente diferente al del estudio anterior.

La existencia de un modelo tentativo ayuda a seleccionar la estructura lógica de todo el proyecto de investigación y planificarlo. El modelo le ayuda a decidir qué material debe recolectarse, de qué casos o especímenes y sobre qué atributos o variables de estos casos. Incluso el registro de observaciones se facilita porque a menudo podrá utilizar definiciones anteriores de variables. Lo mismo se aplica a los métodos de análisis: a menudo puede tomarlos prestados de trabajos anteriores.

En el estudio descriptivo, el proyecto a menudo se organiza en fases distintas, como en el diagrama anterior. Primero se demarca la población sobre la que necesita conocimiento, luego se selecciona una muestra, se recopilan los datos empíricos, se analizan, quizás con el mismo método que en el estudio anterior del que se tomó el modelo, y finalmente se evalúan los hallazgos.

Adoptar modelos de tratados anteriores implica un riesgo: puede afectar sus observaciones de modo que descarte erróneamente las anomalías o aquellos casos que difieran demasiado de lo que cabría esperar sobre la base de la vieja teoría. Si esto sucede, nunca descubrirá las debilidades del modelo anterior.

En normativo Los modelos de estudio se utilizan para describir los problemas existentes y definir las mejoras al objeto de estudio. Si puede encontrar un modelo descriptivo existente del objeto, realizado en un estudio anterior, a menudo puede transformarlo en un modelo normativo agregándole una dimensión evaluativa. Por ejemplo, el modelo de producción industrial de la derecha puede convertirse en normativo agregando la dimensión de rentabilidad y un objetivo para ella.

Los métodos para analizar información y evaluaciones con modelos normativos se discuten en Estudio de caso normativo, Comparación normativa, Clasificación normativa, Estudio normativo de variables e Historia normativa.

Una vez que se ha definido el objetivo de desarrollo con la ayuda de un modelo normativo, el proyecto a menudo continúa planificando las operaciones prácticas, quizás también realizándolas y midiendo los resultados. A veces se puede utilizar el mismo modelo como base de todas estas operaciones, como en la figura de la izquierda, pero por lo general tendrá que refinar un modelo sucesivamente varias veces en el proceso de transformar una definición de metas en un plan de acción o en el diseño de un producto. Este último proceso, por ejemplo, puede incluir fases como el concepto del producto, varios borradores de diseño, una serie de prototipos y finalmente una propuesta detallada del producto.

  1. evaluación del estado inicial y definición de la necesidad de mejoras
  2. análisis de relaciones y posibilidades de cambiar las cosas
  3. síntesis: propuesta de mejora
  4. evaluación del estado final.

Es bastante habitual que tenga que repetir la secuencia anterior varias veces antes de obtener un resultado aceptable. Los proyectos normativos a menudo tratan con problemas prácticos complejos, y al hacer un modelo teórico del problema, el investigador puede desear hacer que el modelo sea más manejable simplificándolo, es decir, omitiendo factores que parecen no esenciales. Sin embargo, en la prueba o evaluación práctica final puede resultar que un factor excluido sea importante después de todo, lo que hace necesario ajustar el modelo y repetir la secuencia una vez más.


ORDEN VARIABLE EN EL MODELO DE CREENCIA DE SALUD

Como punto de partida, hay tres modelos básicos que parecen relevantes para el HBM. Primero, las variables podrían tener una influencia comparable en los resultados. La mayoría de las representaciones visuales del HBM sugieren este orden, ya que todos los constructos se presentan en una línea vertical con flechas que apuntan hacia el comportamiento o la intención del comportamiento (p. Ej., Ver el cuadro & # x0201modelo de creencias en la salud & # x0201d en Champion & # x00026 Skinner, 2008 , pág.49). Este es un modelo plausible ya que los constructos de HBM se conceptualizan en la literatura como canales de influencia (Champion & # x00026 Skinner, 2008). Se cree que los mensajes influyen en los comportamientos a través de uno o más de estos canales. Desde el punto de vista del proceso, este modelo se describe mejor como mediación paralela. En la mediación paralela, se plantea la hipótesis de que todos los constructos de HBM están influenciados por la variable independiente (p. Ej., Exposición de campaña) e influyen en la variable dependiente (p. Ej., Comportamiento de vacunación). Este modelo asume que los constructos de HBM no se influyen entre sí (Hayes, 2012). Las señales para la acción a menudo se incluyen como predictores paralelos en dichos modelos, pero es más probable que los investigadores de la comunicación conceptualicen las señales externas como la variable predictora (por ejemplo, la exposición de la campaña).

La segunda posibilidad es que los constructos de HBM podrían funcionar como una cadena causal, un modelo denominado mediación en serie (Hayes, 2012). Por ejemplo, la exposición de la campaña podría aumentar la autoeficacia, la autoeficacia podría influir en las barreras percibidas y las barreras percibidas podrían predecir el comportamiento (exposición de la campaña & # x02192 autoeficacia & # x02192 barreras percibidas & # x02192 comportamiento). Esto es plausible, ya que un mensaje centrado en la eficacia podría llevar a una mayor percepción de la autoeficacia, y estas mayores percepciones de la autoeficacia pueden, a su vez, llevar a uno a reconocer los beneficios de participar en el comportamiento, solo identificables después de desarrollar un sentido de autoeficacia. eficacia. Aunque es poco probable una cadena causal completa, es plausible que algunas de las variables del HBM se conecten de esta manera (por ejemplo, barreras y beneficios). Es importante explorar la mediación en serie, ya que el impacto diferencial de construcciones específicas de HBM podría ser sintomático de una cadena causal subyacente (y no probada).

En tercer y último lugar, un modelo de mediación moderada supondría que uno de los constructos de HBM sirve como moderador de la influencia de los demás (Hayes, 2012). Por ejemplo, Champion y Skinner (2008) argumentaron que tanto la amenaza percibida como la gravedad percibida pueden moderar el impacto de otras variables de HBM. Particularmente, sostuvieron que se requiere una mayor severidad antes de que la susceptibilidad pueda predecir significativamente el comportamiento. Los autores también sugirieron que los beneficios percibidos y las barreras percibidas pueden predecir mejor el comportamiento cuando la percepción de amenaza es mayor. Señalan, & # x0201c En condiciones de baja amenaza percibida, los beneficios y las barreras para participar en conductas relacionadas con la salud no deberían ser sobresalientes. Sin embargo, esta relación puede alterarse en situaciones en las que los beneficios se perciben como muy altos y las barreras muy bajas & # x0201d (Champion & # x00026 Skinner, 2008, p. 61).

El presente estudio aborda el tema del orden de las variables en el HBM mediante la exploración de tres modelos & # x02014mediación paralela, en serie o moderada & # x02014 utilizando datos de una campaña de vacunación contra la influenza basada en el HBM. Además de probar los efectos directos, el proyecto exploró modelos de mediación en paralelo, en serie y moderados (RQ1).


Método

Participantes

Los datos para el presente estudio provienen del Estudio NICHD de Cuidado Infantil Temprano. Se reclutó a niños y familias de 10 hospitales en los EE. UU. Poco después del nacimiento del niño objetivo. Las descripciones completas del protocolo y los procedimientos del estudio están disponibles en otros lugares (NICHD Early Child Care Research Network, 2000). El estudio del NICHD siguió a los niños y las familias durante los primeros 15 años de vida del niño objetivo. En el presente estudio, las variables evaluadas cuando los niños tenían 54 meses de edad se examinaron como predictores de lesiones no intencionales que ocurrieron desde el segundo al sexto grado. Se eligieron estos puntos de tiempo porque queríamos identificar los precursores de los eventos de lesiones, en contraposición a las variables que podrían estar asociadas con los eventos de lesiones de manera simultánea o retrospectiva. Dado el lapso de tiempo entre las variables independientes y el resultado del recuento dependiente, las variables que emergen como predictores significativos de lesiones resaltan los objetivos potenciales para los esfuerzos de prevención.

Cuando comenzó el estudio del NICHD, se inscribieron 1364 familias, de las cuales 844 completaron todas las evaluaciones a la edad de 54 meses y 708 completaron todos los informes de lesiones hasta el sexto grado. Solo los participantes que tenían datos completos sobre todas las variables utilizadas en los análisis actuales se incluyeron en el presente estudio. Muestras independientes t-Las pruebas no revelaron diferencias estadísticamente significativas entre familias con y sin datos completos de lesiones para las variables predictoras utilizadas en este estudio. El origen étnico de las 708 madres incluidas en el presente análisis fue: 86,9% caucásicas, 9,2% afroamericanas y 3,9% de otras razas. La edad media de las madres en el momento del nacimiento del niño objetivo era de 28,93 años (Dakota del Sur = 5,46). La composición étnica informada para los niños fue: 86,0% caucásicos, 9,0% afroamericanos y 5,0% de otras etnias. Esta submuestra incluyó 356 niños (50,3%) y 352 niñas (49,7%).

Medidas

Temperamento infantil

Los informes maternos de un aspecto de anticipación positiva del temperamento infantil se evaluaron con una versión modificada del Cuestionario de comportamiento infantil (CBQ Rothbart, Ahadi y Hershey, 1994). 3 El estudio NICHD utilizó una versión abreviada de este cuestionario que contenía 80 ítems. Los puntajes promedio de la escala abreviada de Enfoque / Anticipación (10 de los 13 ítems originales) se utilizaron en los presentes análisis (α de Cronbach = .70 con la muestra completa del NICHD Research Triangle Institute, 1999a). Los puntajes más altos indican una mayor propensión a abordar situaciones con entusiasmo y anticipación de un resultado placentero (ítem de muestra: Mi hijo ... “se pone tan nervioso antes de un evento emocionante que tiene problemas para quedarse quieto”).

Atención infantil

La Tarea de desempeño continuo (CPT Rosvold, Mirsky, Sarason, Bransome, & amp Beck, 1956) proporcionó una medida estandarizada del tiempo de reacción en el niño objetivo. Es una tarea generada por computadora ampliamente utilizada en la que se pide a los niños que presionen un botón cada vez que se presenta un estímulo objetivo. El CPT es una medida confiable y válida de la atención de los niños (Halperin, Sharma, Greenblatt y Schwartz, 1991). En el presente estudio, los niños completaron esta tarea en un laboratorio de estudio, y se utilizó como índice de atención el tiempo medio transcurrido desde que se presentó el estímulo hasta que el niño presionó el botón. Se utilizaron períodos de tiempo promedio más cortos (es decir, tiempos de reacción) como indicadores de mayor atención.

Calidad de la relación madre-hijo

El informe materno de la calidad de la relación madre-hijo se obtuvo con 27 ítems de la Escala de Relación Padre-Hijo (PCRS Pianta, 1994). Los 27 ítems se sumaron para proporcionar un índice de las opiniones de la madre sobre su relación con los hijos, con puntuaciones más altas que indican una relación más positiva entre la madre y el niño objetivo (α de Cronbach = .84 con la muestra completa del NICHD Research Triangle Institute, 1999b) .

Seguridad del entorno físico

La seguridad del entorno doméstico se evaluó con la escala de Entorno Físico de siete ítems del H.O.M.E. Inventario (Caldwell & amp Bradley, 1984). Las puntuaciones en esta escala van de 0 a 7, y las puntuaciones más altas reflejan un entorno físico libre de peligros y seguro para los niños (p. Ej., "El entorno de juego exterior parece seguro"). El completo H.O.M.E. El inventario contiene 55 ítems que se califican en un formato binario (Sí / No) durante una entrevista semi-estructurada en el hogar de 60 a 90 minutos. Los coeficientes alfa para todas las escalas son & gt.90 y la concordancia entre observadores es & gt90% (Caldwell & amp Bradley, 1984).

Historial de lesiones

Las madres completaron entrevistas durante los semestres de otoño y primavera cuando el niño objetivo estaba en segundo grado y una vez al año cuando el niño estaba en tercer a sexto grado. Se preguntó a las madres si el niño objetivo había recibido una lesión que requiriera atención médica desde la entrevista anterior (Sí / No). La evidencia empírica sugiere que tales informes de antecedentes de lesiones son confiables (Pless & amp Pless, 1995). Para el presente estudio, la variable de resultado fue la suma de todas las lesiones informadas que requirieron atención médica durante este período de tiempo. La distribución de lesiones tuvo sesgo sustancial (1,74) y curtosis (3,15), con una media de 0,54 y Dakota del Sur de 0,84. El número modal de lesiones fue 0 (455 casos), seguido de 1 (178 casos), 2 (64 casos), 3 (20 casos), 4 (5 casos) y 5 (1 caso).


Cómo hacer un modelo conceptual

Fui a la escuela de arte. Estudié pintura hasta que me peleé con los expresionistas abstractos y me cambié a la fotografía. Pero puedo dibujar.

Lo que no puedo hacer es un diagrama. Siempre quise hacerlo. Tengo modelos en mi cabeza todo el tiempo de cómo funcionan las cosas. Pero cuando llega el momento de hacer un modelo visual de esas ideas, no puedo imaginar cómo representarlas. Me encuentro recurriendo a modelos preexistentes como los cuatro cuadrados o el triángulo de Sierpinski (me gustan los fractales). Por ejemplo:

Aparte de las opciones de color oh-dios-mis-ojos, mi diagrama de arquitectura social tiene problemas más profundos. Por ejemplo, las ideas en él se limitan a tres dentro de tres porque esa es la forma que toman los triángulos. El modelo sirvió para comunicar mis ideas lo suficientemente bien por el bien de mi taller, pero ... ¿no debería & # 8217t formar el significado de SEGUIR? Si tuviera más de cuatro elementos para cualquier sección, tendría que contraer dos o modificarlos de alguna otra manera. Estaba sacrificando precisión por coherencia. Pero no sabía cómo hacerlo para mejorarlo.

Un modelo conceptual es una representación visual de un conjunto de ideas que aclara el concepto tanto para el pensador como para la audiencia. Es una herramienta útil y poderosa para diseñadores de experiencia de usuario, pero también para negocios, ingeniería y marketing… básicamente cualquier persona que necesite comunicar complejidad. Que somos la mayoría de nosotros en estos días.

El modelo de concepto más conocido en la profesión de la experiencia del usuario es probablemente "Elementos de la experiencia del usuario" de Jesse James Garrett. El más conocido en los círculos de empresas emergentes es el proceso de puesta en marcha ajustada. Ambos modelos encapsulan las ideas que sostienen de una manera tan memorable que lanzaron movimientos.

Si desea presentar claramente un conjunto de ideas a una audiencia y representar cómo encajan, un diagrama es mucho más poderoso que las palabras por sí solas. Dan Roam señala esto en su último libro, Blah Blah Blah:

"Cuanto más dibujamos, más visibles se vuelven nuestras ideas y, a medida que se hacen visibles, se vuelven claras y, a medida que se vuelven claras, se vuelven más fáciles de discutir, lo que en el círculo virtuoso del pensamiento visual nos impulsa a discutir aún más".

Los modelos conceptuales pueden servir para muchos propósitos. Puede utilizar modelos conceptuales para mostrar a sus compañeros de equipo cómo se organiza un sitio web complejo antes de que se cree el sitio ...

El modelo de Andrew Hinton de un "edificio organizativo virtual compartido en el que personas repartidas por todo el país colaboraban para ejecutar y participar en la organización".

... o para ayudar a los compañeros de equipo a comprender cómo funciona actualmente el sitio ...

Modelo conceptual de Bryce Glass sobre el uso de Flickr.

… O para mostrar a los usuarios finales cómo funciona un servicio, para ayudar a venderlo.

Biblios utiliza un modelo conceptual para ayudar a los usuarios a comprender el poder de la catalogación social. Lo que le falta de elegancia, lo compensa con claridad.

Enseño diseño de experiencia de usuario y mi plan de estudios siempre incluye modelos conceptuales. Los estudiantes míos que hacen un modelo de concepto antes de trabajar en el diseño de interacción y la arquitectura de la información siempre hacen productos mejores y más coherentes. El acto de ordenar información los obliga a pensar en cómo encajan todos los elementos dispares de un producto.

Folleto de Stephen del taller sobre la representación de tipos de relaciones visuales. Pensamiento avanzado y útil.

Puede imaginarse lo emocionado que estaba de participar en el taller de Diseño para la comprensión en la Cumbre de IA de 2014. En parte porque iré a ver cualquier cosa de la que Karl Fast o Stephen P Anderson hablen y les pediré juntos es que la Navidad llega temprano. Pero sobre todo con la esperanza de aprender una forma de hacer un buen modelo conceptual.

El taller fue muy interesante y revelador: cubrieron cómo el cerebro procesa la información y cómo las formas de interactuar con la información pueden promover la comprensión. PERO todavía no pude hacer un modelo para salvar mi vida. ¡No sabía por dónde empezar!

En el almuerzo, Stephen estaba atendiendo la habitación mientras Karl les traía comida. Había estado luchando con un modelo de negociación que quería para una charla que presentaría más adelante en el programa. Al ver a Stephen inactivo, me abalancé y le supliqué ayuda.

Stephan P. Anderson es autor de Seductive Interfaces y el próximo Design for Understanding. También es un alma paciente que soportará los diagramas torpes y las solicitudes ridículas. Comenzó a dibujar mi modelo y me dijo lo que estaba pensando mientras dibujaba. Luego tuve mi momento de bingo: ¡Stephen había olvidado lo que era no saber cómo empezar! Esto les pasa a todos los expertos. Después de un tiempo, algo de conocimiento está tan profundamente arraigado en su psique que olvidaron lo que era no saber. Luego enseñan los matices en lugar de los fundamentos.

Le sugerí que hiciéramos un protocolo de pensar en voz alta mientras él hacía un diagrama conceptual que dibujaría, y le pedía que hablara sobre lo que pasaba por su mente. Estaba emocionado de que le reflejara sus pensamientos para que él también pudiera convertirse en un mejor maestro. Organizamos una sesión de dibujo después del taller.

Stephen Anderson dibuja un protocolo de pensamiento en voz alta para capturar cómo trabaja.

Más tarde ese mismo día, nos reunimos en el tranquilo bar del hotel con vino y un cuaderno de bocetos. Le pregunté qué quería dibujar. "¿Tienes algo en lo que estás trabajando?" preguntó. "De esa manera puedo concentrarme en el modelo, en lugar de repensar las ideas".

¿Tenía un modelo con el que estaba luchando? ¡Siempre! Compartí mi nueva teoría sobre la naturaleza de los productos digitales. Escribiré eso en otro artículo cuando esté terminado, pero por ahora, la versión corta es que uno debe iterar a través de los elementos del diseño digital, que incluyen el marco, las interacciones, la estructura de la información y la estética. Pero un producto no se convierte en una experiencia hasta que una persona interactúa con él. Su diseño no puede ser conocido hasta que vea lo que sucede cuando aparece un humano.

El primer paso de Stephen fue preguntarme sobre mi objetivo para el modelo. Dije que era para que los estudiantes y los practicantes jóvenes entendieran las interdependencias de los elementos, para que tuvieran un enfoque más iterativo. Y que los críticos puedan entender por qué las cosas son diferentes, tanto buenas como malas.

A continuación, hizo lo que yo llamaría un inventario de ideas. Hizo una lluvia de ideas sobre más elementos que podrían influir en el modelo. Se aseguró de que no se dejaran ideas fuera. Tomó notas de aquellos que sospechaba que podrían ser importantes en los márgenes. Dibujaba mientras pensaba, a veces simplemente haciendo marcas sin sentido, como si se calentara las manos.

Luego preguntó cuidadosamente sobre cada elemento de mi teoría, asegurándose de que entendía cada uno. ¿Qué era una estructura de información y qué era un marco? ¿Eran diferentes? Terminé contando una pequeña historia sobre un producto para asegurarme de que entendiera lo que estaba explicando. Yo también comencé a dibujar, animado por sus fáciles garabatos.

Finalmente, Stephen notó las relaciones de los elementos entre sí. ¿Fueron algunas cosas subconjuntos de otras? ¿Hubo alguna superposición o resultado?

Jugando con las relaciones (mi dibujo).

Una vez que supo qué era cada elemento y cómo se relacionaban entre sí, comenzó a dibujar en serio. Dijo: “Siempre empiezo con círculos porque los bordes significan algo. Significan que tienes cuatro elementos o cinco. Los círculos dejan espacio para el juego ". Sus círculos rápidamente se convirtieron en manchas y luego en formas.

I don’t know if he’d normally talk to himself out loud when not encouraged to do so, but it was fascinating to to hear him free associate concepts, then draw them out. A string of concepts became a string of beads moving through an experience became moving through a tunnel intertwined ideas were a braid. Any important idea got a drawing.

Here Stephen tries on various relationship metaphors, including moving through tunnels, holding something, string of ideas, braided together concepts.

Each time he completed a mini-model, he’d evaluate what was missing and what was working and take that insight to the next drawing. He made dozens of these little thumbnail drawings.

Stephen said, “one shape leads to another…a single word sparks a new representation—we’re always ‘pivoting’ from one thumbnail to the next…”

He pointed out what concepts were left out, or where they could be misinterpreted.

“You want to avoid 3-d, because it’s fraught with problems. You want to be able to sketch it on a napkin.” —Stephen Anderson, on keeping in mind the model’s goal

At one point, he became tapped out, and we spoke of other things. We stared out the window at the harbor, and I drank some of my wine, forgotten in the excitement of drawing and talking.

Then suddenly he started in again and produced a flurry of new drawings. I realized resting and mulling was important too. I was a bit annoyed with myself. An article doesn’t come out perfect in one writing session. Why should I expect a concept model to just materialize?

Finally he came to a stop, several pages filled with a jumble of images. We didn’t have a model, but we had many good directions. As we finished our drinks and headed toward the opening reception, Stephen told me, “You gotta get Dan Brown to do this, too.”

Dan M. Brown is best known in the user experience design community as author of Communicating Design and Designing Together. Both books benefit greatly by clear and succinct conceptual models, and the former even talks about how to use them in the design process:

Purpose—What are concept models for?
There really is only one reason to create a concept model: to understand the different kinds of information that the site needs to display. This structure can drive requirements for the page designs, helping you to determine how to link templates to each other. With the structure ironed out, you might also use the model to help scope your project—determining what parts of the site to build when.

Audience—Who uses them?
Use concept models for yourself. Ultimately, they are the most selfish, introspective, and self-indulgent artifact, a means for facilitating your own creative process.”

–Communicating Design: Developing Web Site Documentation for Design and Planning 2nd Edition, Dan Brown, 2010

Clearly, a guy I should be talking to!

The IA Summit was held in sunny San Diego in a hotel with not one but two swimming pools, so Dan had brought his family with him. When I asked him if I could watch him draw a concept model, he said, “I’m at the coffee shop with the boys around 6:30 every morning.”

You take what you can get.

The next morning Dan settled the boys in a corner with books, pastries, and an emergency iPad, and we got to work. We agreed he’d model the same concept, to control for variations. By now I had created a formula for the idea: (F+In+Is+Ae)+P=E. Framework, interactions, information structure, and aesthetics plus a person makes an experience. I was modeling in words as my friends were modeling in pictures.

I took Dan through the same story of an iterative product design process, since it had helped Stephen. I sketched it out. I felt like my hands were waking up from a long sleep, and they were eager to hold a pen now.

As I spoke, Dan wrote down key ideas and also began to scribble. He used the same process as Stephen: collecting the concepts then inspecting them for hidden complexity.

“A question I ask myself is ‘what needs unpacking?’ I can’t diagram an idea until it’s clear in my own brain.” —Dan Brown

He then took each concept and free associated all the sub-elements of the concept. He drew them out loosely, mind-map style.

Dan also started with the goal and wrote it out across the page.

He also asked explicitly who the model was for. To draw, he needed to visualize the audience. This reminded me of a recent presentation workshop at Duarte where we literally drew pictures of our audience. No work can be good unless you know who it’s for.

Duarte has you draw your audience before you design your presentation, so you remember who you are presenting to and how much attention they are (or aren’t) giving you.

Dan made sure he didn’t carry anything in his head: All ideas were put on paper as a note or a sketch. When he had to turn a page, he ripped it out to lay it next to the other pages. I realized how critical it was to have plenty of room to see everything at once. I saw the same technique of storytelling and drawing of ideas.

Around now, Stephen joined us. He was excited to see what Dan came up with, enough to also climb out of bed at the crack of dawn. I listened as the two diagrammers discussed the poster session and the strengths and weaknesses of the ideas that had been presented.

Dan said, “You can look at people’s posters and see their process. They are so close to their own narrative…In one poster, the key framework was rendered in a very pale text. It was a good story, but there are things you want to jump off the page. For her, my guess is those steps were so self-evident she didn’t see need to highlight them.”

You have to have a beginner’s mind to explain to beginners.

“Speaking of beginner’s mind, so much of my design process is to throw it all out start all over again.” —Dan Brown

Now Dan began to model the concept. He emphasized the importance of sticking with very simple geometry–circles, squares, triangles, lines–not fussing with trying to find a perfect model at the beginning, just exploring the ideas and their relationships.

He also mentioned he begins with any concept in the model and doesn’t worry about representing order at first. He starts with what catches his interest to get familiar with the ideas.

Dan then deviated from Stephen by seeking the focal point. What concept held all the others together? What was the most important or key idea? He tried out placing one idea, then the other, in the center to see if felt right.

After scrapping one bowtie model, he paused. “I sometimes retreat into common structures and see how these common structures might speak to me. For example, time is one of those fundamental aspects, so I ask myself: How much do I need to show time here?”

He demonstrated by drawing swimlanes and sketched the ideas and their relationships in time.

Swim lanes for moving across the elements.

“Are there other elements you often look for, like time?” I asked

“People,” he replied. “People and time are familiar concepts, easy for an audience to relate to. By using them as a foundation for a model, I’ve already made it easier for people to ‘get on board.'”

He stared at the paper, deep in thought.

Stephen then pointed at the page. “What Dan did here,” he said, poking at where Dan wrote out goal and audience, “I did also but didn’t externalize. I was holding it in my memory, but I like having it on the paper better.”

Eventually Dan, too, was tapped out, and his sons began to play Let It Go on the iPad at higher and higher volumes. He separated his sons from the electronics and left to prepare for the swimming pool.

After Dan, I knew I wanted to try to get one more person to model. Since I was lucky enough to be at a conference full of diagrammers, I chased Joe Elmendorf of The Understanding Group. He had just given a talk on Modeling for Clarity that my friends were raving about. And, with my luck still holding, I got to have breakfast with him. Happily, at 8 am this time.

Joe Elmendorf brings pace layers into the discussion. My handwriting is the ballpoint his, the nice black ink pen.

Again, I saw what were becoming familiar concepts (inventory, inspection, relationships, then talk-draw.) I then focused on how he differed from Stephen and Dan. He choose to use the title of the diagram as an element. He did not iterate as widely as Stephen. He was the first person to argue with me about the validity of my theory, which was a great way to understand it (and benefited me by making it better!).

As well, he reinforced something Stephen had mentioned in his workshop and that Dan was obviously doing: Joe had a large mental library of typical models to draw upon, which got him started. Stephen keeps a Pinterest board full of inspiration, if you want to start your own “lego box” of models.

Stephen’s Board http://www.pinterest.com/stephenpa/the-visual-display-of-information/

Overall, there were so many familiar patterns I saw in his approach, the differences were more interesting than important. I had my answer. I knew how they did it.

On the last day of the conference in the afternoon, Stephen and I were scribbling further on the model, playing with petals for the elements, when Dan Willis joined us. Dan is also a master of models as well as an inveterate sketcher.

Stephen further refining ideas, always generating.

Although Dan declined to diagram for me, claiming brain fatigue (a reasonable claim at this year’s Summit) he pulled up a chair and sat sketching next to us. It was companionable, to sit and talk and draw ideas. We moved back and forth from discussing life to discussing the ideas, teasing, joking, drawing. As we chatted, I realized this was a part of the secret. You need a thinking partner. Sometimes it’s paper, sometimes it’s friends but it’s best when it’s both. It doesn’t always matter what you draw, just that you draw.

Dan Willis drawing nearby makes me happy.

Our brains work better when our hands are busy.

Later, sitting in the back of a session, I lobbed a model at Stephen, and he shot back with his own.

Refining an idea, mine on left, Stephen’s on right.

Then I saw another step, one which Dan had alluded to when he mentioned the poster with the key point too pale to read: You have to refine the model to communicate effectively. Type, color, and labels are all a key part of the communication process. While the model did stand alone without the color and type, adding those–and most especially getting labels right–made the model more effective.

After getting home, I started sketching how concept models were made. I drafted this article and then asked my friend Dave Gray if he’d do a quick edit. Dave was the founder of Xplane, a company that used diagrams–concept and other–to transform companies. Dave has been a proponent of visual thinking and clear modeling for years, and I consider him the master of making ideas visible.

Life then intervened and this article sat. I was busy with several things, including Lou Rosenfeld’s 32 Awesome Practical UX Tips. Dave presented right before me, and watching him sketch, I realized I just had to get one more diagramming session in. It was not enough to have him comment, I needed to see him draw. I was grateful I did otherwise, I would have missed a crucial piece of the puzzle.

Dave Gray draws on cards so he can rearrange, manipulate, and overlay the concepts.

We hopped on a Google Hangout and he also drew out that same darn design model for me. I saw familiar patterns in his approach: inventory, unpack, relationship exploration. But he added a critical step I hadn’t thought of before: Test the model.

He’s currently writing a book on Agile, and it shows. He said, first design the test, then design the thing. For the model, he suggested using his WhoDo Gamestorming tool as a way to design a test of the effectiveness of the model. He lists who the model is for and what they will do if they understand the model.

If Dave didn’t fully understand the audience for the model, he might do an empathy map for those people.

Designing a test of the model’s success radically clarified the goals for the model. Testing it would make sure it did what you wanted it to do.

So then I sat down to make a model of how to make models. And it came easily.

Determine the goal: How will the model be used, by whom? What is the job of the model? To change minds, explain a concept, simplify complexity?

Inventory the concepts: Brainstorm many parts of your concept. Keep adding more in the margins as you go.

Inspect the concepts: Are there many concepts hiding in one? Do you really understand each idea?

Determine the relationships: How do the concepts interact?

Decision point: Do I understand the ideas and what I’m trying to communicate?
Test: Ask yourself if the model “feels” right.
If yes, then continue.

Iterate with words and pictures: Talk to yourself and draw it out!

Evaluate with yourself/the client: Keep making sure the drawings match the ideas you wish to communicate. Don’t punk out early! Rest if you need to!

Decision point: Does my audience understand the ideas and what I’m trying to communicate?
Test: Can my audience answer key questions with the model?
If yes, then continue.

Refine: Use color, type, line weight, and labels to make sure you are communicating clearly.

The concept model is invaluable. But like so many useful things, it takes time to make.

When my daughter first started drawing My Little Pony, she expected to start at the ears and draw it perfectly down to the hooves. She was angry when it didn’t work that way, and it took some convincing to get her to block out key shapes then refine the whole, and to use pencil before ink. When I sat down to make a concept model, I made the same mistake! I’d start in Powerpoint or Grafio, and expect perfection to flow from my mind.

¡No más! Stephen, Dan, Joe, and Dave taught me to play, explore, refine, test, and play some more until the result was right. ¡Gracias a todos!

If your hands do not obey your brain, and/or you need more ideas for shapes and relationship models, I recommend Dave Gray’s Visual Thinking School.

See my interview with Dave on how he’d make the experience model


Character & Context

What do you want out of your social psychology research?

The obvious—and dominant—answer is to explicar how the mind works. The statistical methods typically employed by psychologists are set up to answer questions related to cause and effect.

But this is not the only way to approach science—or statistical methodology. In a preprint paper currently under review, researchers Tal Yarkoni and Jacob Westfall suggest that psychologists should shift their emphasis in the direction of predicción.

The difference is not just one of semantics—it is one related to how to conduct and evaluate research.

In a typical psychology study, the main criterion for publication is the pag-valor. Often misinterpreted and debated, in psychology it is typically used to test the null hypothesis and interpreted in a frequentist framework.

Psychology studies attempt to reject the null hypothesis that an effect is zero, and thus show that there es an effect. los pag-value corresponds to the long run probability of incorrectly rejecting the null hypothesis.

For example, I might ask: is the effect of emotion on memory zero? If I find that my data are unlikely given the null (a zero effect), I would present this as evidence that there es an effect—emotion affects memory.

On the other hand, Yarkoni and Westfall suggest a criterion for evaluating studies borrowed from the Machine Learning: cross-validation. Cross-validation is a process whereby a predictive model is “tuned” on a training data set, and used to predict data in a prueba data set. Researchers don’t concern themselves with whether or not their model does a good job predicting the training data—the real test is whether they can predict the test data.

The most popular form of cross-validation, k-fold cross validation, involves cutting data into slices, one of which is held out for testing, and all the rest of which are used for training. The process is then repeated, with a new slice being held out for training, until training has occurred on each slice. This reduces the amount of data needed to do effective cross-validation.

Cross-validation thus inherently values generalization. The question being answered is not what would happen if I repeated this exact experiment over again—it is whether the particular effect would be seen in a different group of people.

For example, I might ask: does the effect of emotion on memory I see in one sample help me predict the effect of emotion on memory in a new sample?

If this sounds to you like another important contemporary issue in psychology, then you may anticipate the analogy Yarkoni and Westfall draw between the “replication crisis” and a predictive approach to psychology.

Yarkoni and Westfall suggest that we can think of studies that do not replicate as over fit. When creating statistical models, a researcher can get a “perfect fit”—defined by 100% predictive accuracy—to alguna data set simply by adding more predictive variables (parameters). The model can do this by capitalizing on idiosyncratic relationships between variables that are not likely to be seen in new data.

For example, in a particular data set, I might find that having a score of six on positivity of emotional experience—but only among left-handed, French men over six feet tall—perfectly predicts the observed memory score of five. But this was just due to the fact that the one tall, French, left-handed man in the data set scored five on the memory test. It’s unlikely that this will give a perfect prediction for new tall, French, left-handed men.

Because Machine Learning uses prediction as a main criterion for success, over-fitting has been a larger theoretical concern. Cross-validation is a method that implicitly includes a penalty for over-fitting: while the model making specific predictions about the tall, French lefty will do better in the training sample, it will do peor in the test sample. A model that just includes emotion might actually do mejor predicting new data—because it includes only predictors that generalize.

A statistically significant pag-value, on the other hand, doesn’t have this trade-off built into it. When exploring data—as scientists should, in order to uncover patterns—the pag-value can lead researchers to believe they have found a real relationship, but instead they have just over-fit their model.

Yarkoni and Westfall’s suggest cross-validation as a criterion for success in psychology as a way to implicitly take replication into account. In a sense, cross-validation is a way of replicating your effect on your own data. Using cross-validation as a measure of evidence can increase the flexibility with which researchers can explore their data—while at the same time making their results more reliable.

Some psychologists have embraced the replication movement in social psychology, but others find it negative and pessimistic. It’s easy to blame others and show how their work isn’t good, but it’s harder to put forward your own ideas and research. Yarkoni and Westfall’s argument for borrowing from Machine Learning approaches in psychology appeals to me because it is proactive. The article isn’t focused on “clearing out” previous studies that are unreliable from the literature: it’s about how to grow better evidence.

Cross-validation as a criterion will not be a panacea. There may be problems with this analytic strategy that become apparent as it is adopted by more researchers. And ultimately predictive models should be used to the extent that they can assist our ultimate scientific goal of explaining mind and behavior. Given the success of Big Data and Machine Learning across science and industry more broadly, it’s time that social psychologists embrace prediction.

Resources on Machine Learning:

Yarkoni and Westfall reference the text Elements of Statistical Learning by Trevor Hastie, Robert Tibshirani, and Jerome Frieman. A free PDF copy of this book, with lectures, is available online:

Every Summer, the Prof. Kevin Grimm at Arizona State University (from whom I received training in Machine Learning), teaches a week-long workshop on Data Mining hosted through the American Psychological Association:

One of the most popular offerings on Coursera (which provides free online courses) is Machine Learning by Andrew Ng of Stanford University:

The lectures from this course are also available via YouTube:

There is a collaborative, open source ethos behind many Machine Learning materials. More great materials are available—let your search engine be your guide.

Alex Danvers is a social psychology PhD student interested in emotions, social interactions, and friendship. He is also interested in applying new methods to his research, including—most recently—Machine Learning techniques. @Alex_Danvers on Twitter.

Yarkoni, T., & Westfall, J. (under review). Choosing prediction over explanation in psychology: Lessons from machine learning.


Examples of Operational Definitions

Imagine a researcher who is interested in helping curb aggression in schools by exploring if aggression is a response to frustration. To answer the question, the researcher must first define “aggression” and “frustration,” both conceptually and procedurally. In the example of frustration, the conceptual definition may be obstruction of goal-oriented behavior, but this definition is rarely specific enough for research. Therefore, an operational definition is needed that identifies how frustration and aggression will be measured or manipulated. In this example, frustration can be operationally defined in terms of responses to the question: How frustrated are you at this moment? The response options can be (a) not at all, (b) slightly, (c) moderately, and (d) very. The researcher could then classify people as frustrated if they answered “moderately” or “very” on the scale.

The researcher must also operationalize aggression in this particular study. However, one challenge of developing an operational definition is turning abstract concepts into observable (measurable) parts. For example, most people will agree that punching another person in the face with the goal of causing pain counts as an act of aggression, but people may differ on whether teasing counts as aggression. The ambiguity about the exact meaning of a concept is what makes operationalization essential for precise communication of methodological procedures within a study. In this particular example, aggression could be operational-ized as the number of times a student physically hits another person with intention to harm. Thus, having operationally defined the theoretical concepts, the relation between frustration and aggression can be investigated.


There are many ways that IT professionals work on the principle of data organization. Many of these are classified under the more general heading of "data management." For example, re-ordering or analyzing the arrangement of data items in a physical record is part of data organization.

One other main component of enterprise data organization is the analysis of relatively structured and unstructured data. Structured data is comprised of data in tables that can be easily integrated into a database and, from there, fed into analytics software or other particular applications. Unstructured data is data that is raw and unformatted, the kind of data that you find in a simple text document, where names, dates and other pieces of information are scattered throughout random paragraphs. Experts have developed tech tools and resources to handle relatively unstructured data and integrate it into a holistic data environment.

Businesses adopt data organization strategies in order to make better use of the data assets that they have in a world where data sets represent some of the most valuable assets held by enterprises across many different industries. Executives and other professionals may focus on data organization as a component of a comprehensive strategy to streamline business processes, get better business intelligence and generally improve a business model.


Model Answer for Question 11 Paper 1: AS Psychology, June 2016 (AQA)

11 Abi had a happy, secure childhood with parents who loved her very much. She now has two children of her own and loves them very much too. The two children make friends easily and are confident and trusting.

Referring to Abi and her family, explain what psychologists have discovered about the internal working model. [6 marks]

Suggested Answer: Bowlby believed that children develop an internal working model from their monotropic attachment. According to Bowlby, this is usually the mother or a mother substitute. This internal working model is a mental representation which acts a template for future relationships.

Evidence to support the internal working model comes from Hazan and Shaver, who used a questionnaire called the Love Quiz. They found a positive correlation between early childhood experiences and later love experiences. Securely attached children went on to develop secure and happy adult relationships. This supports Bowlby’s idea of an internal working model as it clearly shows that early attachment experiences can affect later adult relationships, through the internal working model.

As Abi had a ‘secure childhood with parents who loved her very much’ this would have led to her developing a positive internal working model, allowing her to go onto form secure attachments with her children ‘who she loves very much’, as suggested by Hazan and Shaver. Furthermore, her children who are also securely attached have gone onto make secure attachments with their friends, as they are ‘confident and trusting’ in their relationships.

Exam Hint: This question was poorly answered and students appeared to struggle with both the psychological content and the application to the STEM. One way to approach this question is to ‘unpick’ the question and consider what mini-questions are contained. Por ejemplo:

  • Explain what psychologists have discovered about the internal working model
  • Referring to Abi and her family
    • Abi and her parents
    • Abi and her children

    By ‘unpicking’ the question and considering each of these different elements, it is easy to access this difficult content.


    Ver el vídeo: construcción de modelo facetado parte 2 (Mayo 2022).