Información

¿Qué esquema de codificación utiliza NEF? ¿Tasa o fase?

¿Qué esquema de codificación utiliza NEF? ¿Tasa o fase?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Existe un debate de larga data en la neurociencia teórica sobre qué información de los picos es más importante: ¿tasa o fase? ¿Qué postura adopta la NEF de esta manera?


La NEF no tiene una postura formal sobre si la información de tasa o la información de fase es importante. Todo lo que le importa son los picos.

Como prueba, considere la derivación de los decodificadores, que es el núcleo del NEF.

Los decodificadores, $ d $ son un vector de pesos sinápticos aplicados a las actividades de las neuronas (un peso de decodificación por neurona) para aproximar una función dada $ f (x (t)) $. Pueden considerarse como los axones de una neurona.

Dadas las actividades de las neuronas con picos en la matriz $ A $ (las filas son neuronas, las columnas son puntos de evaluación), a una entrada $ x $, esta relación se puede explicar como:

$$ A cdot d = f (x (t)) $$

Dada una ecuación con una incógnita, donde una matriz $ A $ se combina con un vector $ d $ para obtener otro vector $ f (x (t)) $, esto se puede resolver usando álgebra lineal para encontrar $ d $.

Tenga en cuenta que no se menciona la tasa o la fase en esta derivación. Es cierto que en el simulador neural de Nengo, se pueden usar neuronas de frecuencia y se pueden calcular las funciones que tienen en cuenta la fase, pero estas opciones de diseño dependen del modelador y no son forzadas por la propia NEF.


Materiales y métodos

Participantes

Este manuscrito describe una serie de experimentos realizados en una cohorte general de 284 participantes (191 mujeres, 93 hombres, rango de edad de 18 a 41 años). Todos los participantes estaban sanos, informaron que eran normósmicos y gozaban de buena salud en el momento del experimento. Ninguna de las mujeres participantes estaba embarazada en el momento del experimento (autoinforme). Los participantes eran todos estudiantes universitarios, reclutados mediante publicidad en los terrenos del campus. Se obtuvo el consentimiento informado por escrito y el consentimiento para publicar de los participantes de acuerdo con los estándares éticos de la Declaración de Helsinki (1964). El experimento fue aprobado por el comité de ética institucional de la Universidad de Bar Ilan (número de referencia ISU20140804001). A los participantes se les pagó por su participación. Para evitar el aprendizaje cruzado, se evaluó a cada participante utilizando solo una condición, con la excepción de los experimentos que se informan en la Figura 4, el suplemento de figura 1.

Diseño experimental

Las mezclas de olor temporal (TOM) estaban compuestas por mezclas de aceites fragantes de naranja (ORG) y canela (CIN), o de los odorantes monomoleculares Citral (CTL) (CAS: 5392-40-5, Sigma-Aldrich) y Dimetil Trisulfuro ( DMTS) (CAS: 3658-80-8, Sigma Aldrich). En ambos casos, los olores se diluyeron a la misma intensidad percibida (CTL: 1: 100, ORG: 1: 1, DMTS, 1: 10000, CIN: 1: 1). Las composiciones de las mezclas de aceites aromáticos se analizaron usando espectrometría de masas por cromatografía de gases (GCMS). Se utilizaron tubos Tenax para atrapar volátiles, y estos se sometieron a GCMS combinado con muestreo dinámico del espacio de cabeza. Los principales componentes de cada aceite según su contribución relativa a la mezcla fueron los siguientes. Aceite de canela: E-cinamaldehído (CAS 14371-10-9), linalol (CAS 78-70-6), o-cimeno (CAS 527-84-4), terpineol (CAS 98-55-5) y acetato de cinamilo ( CAS 103-54-8). Aceite de naranja: limoneno (CAS 138-86-3), gardenol (CAS 93-92-5) y linalol (CAS 78-70-9).

Usamos un olfatómetro personalizado de dilución de aire controlado por computadora para entregar olores en diferentes órdenes y longitudes de secuencia. Los estímulos olfativos duraron 200 ms. El intervalo entre estímulos (es decir, el tiempo entre dos TOM) se estableció en 8 s. La siguiente prueba (es decir, el siguiente par de TOM) se presentó 23 s después de que el participante presentó su respuesta (que generalmente duraba

2-5 s). Tres tonos cortos (1 s) informaron al participante sobre la presentación de olor entrante. Los participantes se sometieron a varias pruebas de entrenamiento para practicar la sincronización de una inhalación nasal de más de 1 s, justo antes de que se liberaran los olores. Para simplificar la tarea, se indicó a los participantes que el primer TOM estaba arreglado. A los participantes se les permitió tres ensayos para familiarizarse con los dos TOM y la configuración experimental, y luego realizaron 20 ensayos. La respiración nasal se registró utilizando una cánula nasal unida a un transductor sensible a la presión, que tradujo estos cambios de presión en una señal eléctrica a través de una interfaz USB (Plotkin et al., 2010). La señal fue adquirida y digitalizada a una frecuencia de muestreo de 1 KHz. El registro de la respiración y los desencadenantes de olores y la interfaz de usuario se diseñaron y realizaron en un entorno LabView (National Instruments).

Entrega de olor

Los estímulos de olores y aire se administraron a través de un sistema de suministro de olores de tres puertos construido a medida. Para evitar efectos cruzados entre los dos puertos de olor (por ejemplo, cambios de presión de aire o contaminación por olor), usamos tres canales completamente independientes (Figura 1A). Para liberar un olor, se pasó aire purificado (grado médico 99,999%, Maxima, Israel) a través de un vial de vidrio que contenía un olor líquido. La selección de olores se realizó utilizando una válvula solenoide controlada digitalmente (07V113, AIGNEP) en cada uno de los canales de distribución dedicados. Se utilizaron válvulas de retención unidireccionales para evitar el reflujo de la corriente de aire olorizada. El flujo de aire se estableció en 1,8 LPM usando un controlador de flujo másico (Alicat Scientific). Todos los días se cambiaban los olores y los tubos de plástico que liberaban olores.

Para evitar la contaminación, los participantes se sentaron frente a tres puertos de olor dedicados, uno para cada uno de los olores (la distancia desde los puertos de olor era

5 cm, Figura 1A). Usamos una demora relativamente corta (8 s) entre la primera y la segunda TOM porque las pruebas preliminares mostraron que las demoras más largas entre las dos presentaciones de TOM disminuyeron las tasas de éxito, incluso cuando se les pidió a los participantes que discriminaran entre dos olores muy diferentes. Verificamos que este ISI corto era adecuado probando la capacidad de los participantes para discriminar entre los dos pares de olores (Figura 2). En el primer conjunto de experimentos (ORG y CIN), el primer TOM se estableció como AB y el segundo TOM fue AB o BA. En parte del segundo conjunto de experimentos (CTL y DMTS), cambiamos el primer TOM a BA. Modificamos este diseño para asegurarnos de que no hubiera ningún sesgo relacionado con la identidad del primer TOM. Como los resultados fueron los mismos, agrupamos los datos.

Para asegurar que la presentación del olor coincidiera con la fase de inhalación del ciclo respiratorio, instruimos a los participantes para que inhalaran durante al menos 1 s justo antes de que se presentara el olor (utilizando una señal auditiva antes de la llegada de cada olor). Los ensayos en los que la presentación del olor se extendió hasta el período de exhalación o comenzó prematuramente antes de la inhalación se excluyeron del análisis (Figura 1F, métodos). El retraso entre los dos olores, Δt, se estableció en ≤600 ms. No probamos retrasos más prolongados porque la duración total de un TOM tenía que ser más corta que un período de inhalación típico (alrededor de 1 a 1,5 s) para ser percibido en su totalidad y para minimizar la posibilidad de discriminar entre los dos TOM al darse cuenta de que estaban compuesto por dos olores consecutivos. De hecho, con retrasos prolongados (por ejemplo, 300 y 600 ms), algunos participantes se dieron cuenta de que los TOM estaban compuestos por dos olores consecutivos. No excluimos a estos participantes de nuestro análisis para evitar sesgos.

Medidas PID

Para estimar la concentración de olor, utilizamos un detector de mini fotoionizador (miniPID, Aurora Scientific). La amplitud de la respuesta PID depende de la identidad del olor, su concentración y la distancia desde la entrada. Cada olor provoca una respuesta diferente que está relacionada con la eficacia con la que se puede ionizar el olor medido. Medimos las respuestas del PID de la puerta a los olores y su dinámica temporal en diferentes retrasos. Todos los TOM provocaron una dinámica de respuesta similar. Las respuestas de PID variaron entre estos retrasos y el orden de presentación del olor, lo que refleja las interacciones entre olores y las interacciones de flujo entre tuberías. Sin embargo, la concentración de olor de los componentes del olor y los TOM en tres retrasos probados fue muy similar en los ensayos de la misma condición. Por lo tanto, se esperaba que cada TOM provocara la misma percepción del olor en todos los ensayos. Medidas de concentración de olores al colocar la entrada PID

5 cm de los puertos de olor (es decir, la ubicación de la nariz de los participantes) revelaron que se preservó el orden de presentación del olor, aunque la concentración de olor fue más variable entre los ensayos cuando se midió a una distancia de 5 cm (Figura 1 — Suplemento de figura 1C ).

Post-procesamiento y análisis

La señal de respiración se puso a cero y se estableció como línea base de modo que los valores positivos denotaran inhalación y los valores negativos denotaran exhalación. Se aplicó un filtro de paso de banda de 0,05 a 100 Hz al trazo respiratorio para eliminar los artefactos de alta frecuencia y la deriva. A continuación, después de la normalización mediante una puntuación z, todo el trazo registrado se sometió a una segmentación en épocas, cada una de las cuales consta de una única prueba.

Para asegurarnos de que los pulsos de olor llegaran en sincronía con el período de inhalación, verificamos meticulosamente todos los pulsos de olor que ocurren dentro del período de inhalación. Calificamos la duración proporcional de los pulsos de olor dentro de cada TOM, o en otras palabras, cuánto del pulso de olor se presentó al mismo tiempo que la inhalación nasal. Un algoritmo automático asignó una puntuación a cada prueba, de acuerdo con la puntuación combinada de todos los desencadenantes de olor en una prueba determinada. Se aplicó un criterio estricto que estableció el límite en 1,00 (todos los pulsos de olor se presentaron completamente dentro de las inhalaciones) para rechazar cualquier ensayo que fuera cuestionable. Finalmente, este proceso automatizado fue respaldado por una inspección visual de prueba por prueba. Los resultados siguieron siendo los mismos cuando usamos un límite menos estricto (por ejemplo, 0,9) o cuando asumimos que la compensación de olor era más larga que la estimación obtenida de las mediciones de PID (por ejemplo, asumiendo una compensación de olor muy larga de 200 ms).

En el paradigma experimental principal, cada sesión constaba de 20 ensayos. Cualquier participante con un número total de menos de 14 ensayos válidos (70% de la sesión) fue excluido del análisis adicional. Esto llevó a la exclusión de 73 participantes luego del análisis de sus datos de ensayo por ensayo, dejando un total de 284 participantes. El número de ensayos eliminados dentro del grupo de participantes restantes que participaron en los paradigmas de TOM ascendió a 162 de 1940 y 223 de 3972 ensayos, o el 8,3% y el 5,6% de todos los eventos en los experimentos CIN / ORG y CTL / DMTS. respectivamente. Los resultados fueron prácticamente los mismos cuando usamos un criterio menos estricto para excluir ensayos.

Como se detalla anteriormente, se presentaron dos TOM en cada ensayo. Cada uno estaba compuesto por dos pulsos de olor rápidos separados por un retardo predefinido. Los estímulos de olor se presentaron después de una señal auditiva que instruía a los participantes a inhalar. Sin embargo, los estímulos no se activaron para bloquearse con una determinada fase de inhalación nasal y, como resultado, se encontraron en diferentes fases de la respiración. La fase respiratoria se calculó con la función "ángulo" de MATLAB aplicada a la transformada de Hilbert del trazo respiratorio. El producto de este cálculo es la fase que aumenta gradualmente de –π / 2 a π / 2 en el transcurso de la fase inhalatoria del ciclo respiratorio (ver Figura 2D para visualización).

Análisis estadístico

Dada la naturaleza de dos alternativas de la tarea, el resultado de cada prueba podría ser "correcto" o "incorrecto", y la tasa de éxito en el nivel de probabilidad fue de 0,50. Por lo tanto, se calculó que una tasa de éxito significativamente mayor que la probabilidad en un experimento de 20 ensayos fue de 0,70 (función de distribución acumulativa binomial). En los casos en los que el número de ensayos válidos fue inferior a 20, este umbral se ajustó en consecuencia, de modo que excedió significativamente el azar en un nivel de significación de p & lt0.05. De manera similar, el rendimiento del grupo medio se comparó con el azar (0,50) mediante una prueba de signos de dos caras. Se llevó a cabo una comparación del rendimiento del grupo en todas las condiciones mediante un análisis de varianza (ANOVA). Para reducir el efecto de los valores atípicos en el resultado de este estudio, enfocamos nuestro análisis en las medianas del grupo. Sin embargo, los resultados siguieron siendo los mismos incluso cuando usamos la media del grupo (es decir, realizamos una prueba t de dos caras para una muestra).

Además de la prueba estándar de los datos frente a una hipótesis nula, también sometimos los datos de cada análisis a pruebas t bayesianas de una muestra con la tasa de éxito como variable dependiente, en comparación con el rendimiento al azar (0,50) con una prueba previa de Cauchy de 0,707. (Good, 1962) El conocimiento adicional obtenido con este enfoque se deriva de su capacidad para cuantificar la evidencia a favor de dos modelos diferentes. Las estadísticas bayesianas son ventajosas para evaluar la probabilidad relativa de la hipótesis nula sobre la hipótesis experimental. Esta ventaja se convierte en una necesidad cuando uno no rechaza H0 (es decir, "resultados no significativos") y necesita cuantificar la evidencia para respaldar esta afirmación (Leech y Morgan, 2002). Por lo tanto, detallamos nuestras estadísticas bayesianas junto con cada prueba de signos regular. El estadístico bayesiano de salida utilizado fue el BF10, que representa una razón de probabilidades, es decir, la probabilidad o simplemente la probabilidad de que los datos sean bajo ambas hipótesis. En nuestra interpretación, utilizamos la recomendación estándar de que un BF10 entre 1 y 3 implica evidencia anecdótica, 3-10 sustancial y 10-30 evidencia sólida, donde BF10 cuantifica la evidencia de la hipótesis alternativa en relación con la hipótesis nula. Todos los análisis estadísticos bayesianos se realizaron en JASP (2019) versión 0.9.2. Los análisis estadísticos sobre los valores de la fase respiratoria se llevaron a cabo utilizando funciones implementadas en CircStat MATLAB, una caja de herramientas para estadísticas circulares que son análogas a la prueba t regular o ANOVA (Berens, 2009).

Análisis de similitud de olores

Para estimar la distancia de percepción olfativa entre todos los olores, pedimos a una cohorte separada (N = 12 para ΔT = 300 ms y N = 9 para ΔT = 600 ms) que calificara los cuatro olores utilizados en este estudio (ORG, CIN, CTL y DMTS ) sobre la base de once descriptores verbales seleccionados de una lista de descriptores de uso común (Dravnieks, 1985). Para calcular la similitud de olor, proyectamos las calificaciones de los participantes en un espacio bidimensional utilizando el análisis de componentes principales (PCA), un método de reducción de dimensionalidad común en la investigación olfativa (Haddad et al., 2010 Khan et al., 2007). Como era de esperar, los olores de ORG y CIN abarcaron un área superpuesta en este espacio perceptivo, mientras que CTL y DMTS fueron marcadamente divergentes, con CTL más similar a ORG / CIN (Figura 2 — suplemento de figura 1A). Cuantificamos la similitud calculando la distancia euclidiana media entre las calificaciones para cada olor. La distancia perceptual entre CTL y DMTS fue significativamente mayor que la distancia entre ORG y CIN (CTL / DMTS = 5,52 ± 1,12 CIN / ORG = 4,18 ± 1,25, emparejados t prueba: t (110) = 5.95, p = 3.1E – 8, d de Cohen = 1.12, Figura 2 — suplemento de figura 1C). Además, esta distancia perceptiva fue apoyada por un algoritmo predictivo que permite estimar la similitud perceptiva a partir de la estructura molecular (Snitz et al., 2013). La distancia entre ORG y CIN fue de 0,0189 radianes, pero la distancia entre CIT y DMTS fue de 1,0846 radianes. En otras palabras, se esperaba que discriminar entre TOM compuestos de citral y DMTS fuera un orden de magnitud más fácil que discriminar entre ORG y CIN. Por último, al igual que con los TOM anteriores, verificamos que estos dos olores tenían intensidades similares (CTL = 7,37 ± 1,19, DMTS = 7,12 ± 0,99, prueba t pareada, t (7) = −0,84, d de Cohen = 0,23, p = 0,43, N = 8).

Análisis de fase TOM

Calculamos las fases de respiración de los dos TOM para pruebas correctas e incorrectas. Se correlacionaron las fases respiratorias para el primer y segundo TOM, tanto para ensayos correctos como incorrectos (correcto: correlación circular r = 0.67, p = 1.33E-8, ​​N = 100 incorrecto: r = 0.549, p = 1.02E-5, N = 84). Las pendientes de la línea de regresión estaban cerca de uno (correcto: a = 0,942, incorrecto: a = 0,859), lo que indica que los participantes tendían a encontrar los dos TOM en fases similares de respiración (Figura 2 — suplemento de figura 1A-B). Además, la comparación de las diferencias entre las fases de respiración de los TOM (p. Ej., TOM1 - TOM2) en ensayos correctos e incorrectos mostró además que las diferencias de fase en los ensayos correctos e incorrectos no eran significativamente diferentes (prueba no paramétrica de múltiples muestras para medianas iguales , Prueba de Kruskal-Wallis para datos circulares: mediana de la población compartida = −0,478 rad, KW (P) = 1,402, p = 0,236 Figura 2 — suplemento de figura 1C – D). Finalmente, una adaptación de la prueba de Kolmogorov-Smirnoff para datos circulares (prueba de Kuiper) realizada iterativamente 10,000 veces sobre los datos de fase sugirió un valor p promedio de 0.985, con un estadístico k promedio de 480.15 ± 126.4 en otras palabras, las distribuciones de fase eran muy similares.

Percepción olfativa de los TOM

Odorante y TOM se calificaron utilizando un conjunto de once descriptores verbales (agradable, afrutado, comestible, picante, químico, medicinal, ahumado, alcohólico, atractivo, terroso y sulfuroso) en una escala de 0 a 10 (donde 0 correspondía a 'nada' y 10 correspondían a 'mucho'). Cabe señalar que en las sesiones de calificación que involucran TOM, estos siempre se calificaron antes que los olores monomoleculares para evitar sesgos en la percepción de las mezclas, dado que sus componentes aislados aún no se habían presentado por separado. Los participantes podían someterse a varias rondas olfativas del mismo olor antes de la calificación, y se impuso un intervalo entre estímulos de 23 s entre dos presentaciones de olor. Los datos de dos descriptores de un solo participante se corrompieron y fueron reemplazados por el promedio del grupo para ese puntaje. Antes de la proyección en el espacio del componente principal, las calificaciones de los descriptores se normalizaron utilizando el puntaje Z.


Perceptrón

Bien, conocemos los conceptos básicos, revisemos la red neuronal que crearemos. El que se explica aquí se llama Perceptron y es la primera red neuronal jamás creada. Consiste en 2 neuronas en la columna de entrada y 1 neurona en la columna de salida. Esta configuración permite crear un clasificador simple para distinguir 2 grupos. Para comprender mejor las posibilidades y las limitaciones, veamos un ejemplo rápido (que no tiene mucho interés excepto entender):

Supongamos que desea que su red neuronal pueda devolver resultados de acuerdo con las reglas del "inclusivo o". Recordatorio :

  • si A es verdadero y B es verdadero, entonces A o B es verdadero.
  • si A es verdadero y B es falso, entonces A o B es verdadero.
  • si A es falso y B es verdadero, entonces A o B es verdadero.
  • si A es falso y B es falso, entonces A o B es falso.

Si reemplaza los "verdaderos" por 1 y los "falsos" por 0 y coloca las 4 posibilidades como puntos con coordenadas en un plano, entonces se da cuenta de que los dos grupos finales "falso" y "verdadero" pueden estar separados por un linea sola. Esto es lo que puede hacer un perceptrón.

Por otro lado, si comprobamos el caso del "exclusivo o" (en el que el caso "verdadero o verdadero" (el punto (1,1)) es falso), entonces podemos ver que una línea simple no puede separar el dos grupos, y un perceptrón no puede lidiar con este problema.

Por lo tanto, el Perceptron no es una red neuronal muy eficiente, pero es simple de crear y aún puede ser útil como clasificador.


Introducción

Desafíos para una comprensión neurocientífica del juego

Jugar durante los primeros años de vida es una actividad omnipresente. Participar en el juego se asocia positivamente con el desarrollo de habilidades sociales, habilidades cognitivas, lenguaje y bienestar emocional (Lyytinen et al., 1999 Pellegrini et al., 2002 St George et al., 2016 Thibodeau et al., 2016 Fung y Cheng, 2017). Las conceptualizaciones actuales del juego en las ciencias del comportamiento lo ven en términos generales como un comportamiento voluntario, atractivo, no funcional y asociado con la expresión de afecto positivo (Burghardt, 2005 Lillard et al., 2013 Miller, 2017). El juego también se puede clasificar según el enfoque del juego, es decir, ¿con qué está jugando el individuo? Por ejemplo, juego fisico es jugar con el propio cuerpo y con otras personas, por ejemplo, trepar, deslizarse, perseguir (Power, 1999 Pellegrini et al., 2002 St George et al., 2016) sociodramático o el juego de aparentar Es jugar con un mundo imaginario, y el enfoque del juego es más que una entidad observable concreta (Lillard et al., 2013) juegos con reglas implica jugar con un conjunto de reglas que los participantes aceptan cumplir para participar en la experiencia de juego, por ejemplo, juegos de mesa o juegos en el patio de recreo como la etiqueta (Hassinger-Das et al., 2017) y juego de objetos implica jugar con objetos físicos (Power, 1999 Pellegrini y Gustafson, 2005). El juego con objetos se puede subdividir aún más, dependiendo de la actividad realizada con el objeto. Por ejemplo, los objetos pueden usarse en el juego relacional, donde se combinan o unen múltiples objetos, y en la simulación de objetos, donde el objeto se usa para representar otra cosa (Belsky y Most, 1981).

Estas diversas categorizaciones y definiciones muestran que el juego en los seres humanos es diverso, multifacético y definido por un conjunto de términos amplios que abarcan aspectos motivacionales, cognitivos, sociales y emocionales del comportamiento y la psicología. En consecuencia, un desafío para la investigación actual es converger en una definición común y un sistema de medición para el juego, ya sea examinado a nivel conductual, cognitivo o neurológico. Este es un desafío oportuno para abordar, ya que las técnicas avanzadas de imágenes cerebrales ahora permiten la captura simultánea de la actividad neuronal de las díadas de adultos y niños durante las interacciones sociales naturalistas, como el juego conjunto (Wass y Leong, 2016 Leong et al., 2017). Un aspecto fundamental de este desafío es el hecho de que es difícil ejercer el nivel de control experimental y precisión temporal necesarios para la investigación a nivel neurológico, al tiempo que se conserva la calidad diversa de forma libre que muchos consideran una característica definitoria del juego.

Desarrollo del comportamiento de juego humano

El comportamiento de juego cambia sustancialmente a lo largo de la vida (Power, 1999). Estos cambios en el comportamiento de juego ocurren según el nivel de desarrollo de uno y # x2019s (por ejemplo, la progresión del juego solitario al juego cooperativo) y las interacciones con otros en un esfuerzo por lograr las metas de desarrollo. Durante la infancia, las madres participan en juegos individuales con su bebé para modelar y promover las habilidades necesarias para el desarrollo de su hijo, como las habilidades de comunicación y lenguaje, aumentar sus capacidades cognitivas, fomentar el desarrollo autónomo y otras habilidades importantes que se requieren. para la interacción social y el bienestar (por ejemplo, Valentino et al., 2011 Bernier et al., 2016). Por ejemplo, Mermelshtine y Barnes (2016) encontraron que la capacidad de respuesta de la madre hacia su bebé durante el juego a los 10 meses de edad predijo positivamente capacidades y habilidades cognitivas más altas (por ejemplo, resolución de problemas, conocimiento y memoria) a los 18 meses. Este efecto se mantuvo después de tener en cuenta la educación materna, la adversidad en el hogar y el juego infantil avanzado con objetos. Si bien la interacción diádica, por ejemplo, madre-bebé & # x2013 está presente durante todo el primer año de vida, no es hasta aproximadamente el final del primer año que la capacidad del bebé para participar en la interacción triádica (es decir, madre-bebé-objeto) se consolida (Bakeman y Adamson, 1984 de Barbaro et al., 2013a). Esta progresión a la interacción triádica, centrada en torno a un objeto, se considera importante para muchos aspectos del desarrollo psicológico, incluida la conciencia simbólica y el lenguaje (Tomasello, 1999 De Schuymer et al., 2011). Como señala Rodr & # x00EDguez (2009), los objetos son símbolos de sus usos dentro de una cultura (una taza, por ejemplo, puede representar la bebida), y la comprensión de estas relaciones objeto-uso representa la adquisición temprana de normas culturales y la adopción de un sistema simbólico fundamental. Los adultos y los bebés se comunican sobre objetos y con objetos. Además, existe un cruce sustancial entre la literatura sobre el juego de objetos y la exploración de objetos en la infancia, y la exploración se considera una parte fundamental del juego de la primera infancia (Belsky y Most, 1981). La evidencia sugiere que la exploración de objetos en la infancia juega un papel en el desarrollo de la resolución de problemas y la atención (Caruso, 1993 Poon et al., 2012 Clearfield et al., 2014) y se observan diferencias individuales entre niños de diferentes orígenes socioeconómicos (Clearfield et al., 2014). En consecuencia, se consideró que enfocar nuestro modelo alrededor de un objeto físico era el mejor enfoque para estudiar la actividad conductual y neuronal durante el juego entre padres e infantes.

Además de utilizar el juego con objetos en el enfoque actual, el contexto del juego madre-bebé es igualmente importante para el estudio actual. La importancia de las interacciones madre-hijo en el desarrollo temprano está bien documentada (por ejemplo, Belsky y de Haan, 2011 Bernier et al., 2016 Mermelshtine y Barnes, 2016). Sin embargo, las interacciones medidas a menudo están relacionadas con los procesos de crianza (por ejemplo, apoyo / afecto de los padres, sensibilidad, comunicación, capacidad de respuesta) que ocurren en un contexto de juego y no incluyen la codificación cuantitativa de las interacciones reales del juego. Si bien estos estudios brindan información sobre cómo los procesos de crianza materno influyen en el desarrollo temprano, no pueden explicar el papel específico del juego madre-hijo. Por lo tanto, es un próximo paso importante examinar si y cómo el juego de la madre y el bebé afecta el desarrollo temprano, particularmente el desarrollo neuronal. Para lograr este objetivo, se debe desarrollar un esquema de codificación de juegos que sea compatible en resolución de tiempo con el de las medidas de imágenes cerebrales.

Información sobre la neurociencia del juego a partir de modelos animales

Debido a los desafíos del control experimental (p. Ej., La estandarización de los participantes y el comportamiento y el entorno), los estudios de neurociencia sobre el juego se han centrado principalmente en modelos animales (en particular ratas) y en el comportamiento de juego social brusco (ver reseñas de Pellis y Pellis, 2009 Cooke y Shukla, 2011 Siviy y Panksepp, 2011 Vanderschuren et al., 2016). Los modelos de roedores han demostrado ser particularmente útiles porque las ratas muestran formas predecibles y estereotipadas de comportamiento relacionado con el juego (por ejemplo, un animal & # x2018pins & # x2019 el otro en su espalda, emisión de vocalizaciones ultrasónicas, etc.) que son fácilmente cuantificables y tratables. a la manipulación experimental y farmacológica. En consecuencia, ahora existe una literatura relativamente rica sobre los sustratos neuroanatómicos y neuroquímicos del comportamiento de juego brusco en ratas, utilizando métodos (invasivos) como lesiones cerebrales, administración intracraneal de compuestos neuroactivos y ensayos de expresión génica. A saber, los circuitos neuronales clave que ahora se sabe que funcionan en conjunto para apoyar a las ratas y el comportamiento de lucha de juego son: (1) a circuito ejecutivo cortical (en particular, la corteza prefrontal (PFC) y la corteza orbitofrontal (OFC)) que media el ajuste fino del desarrollo y la complejidad del juego, como la capacidad de coordinarse o modificar los movimientos en respuesta al estatus social de un compañero de juego (Moore, 1985 Pellis et al., 1999 Pellis et al., 2006 Bell et al., 2009 Siviy y Panksepp, 2011) (2) a circuito límbico subcortical (amígdala, hipotálamo y cuerpo estriado) que modera la motivación y la respuesta afectiva al juego (Meaney et al., 1981 Wolterink et al., 2001 Daenen et al., 2002 Burgdorf et al., 2007), potencialmente vía dopaminérgico y opioide. vías (Vanderschuren et al., 2016) y (3) circuitos somatosensoriales (corteza somatosensorial, tálamo, cerebelo) que controlan los patrones de juego motor y el rendimiento (Siviy y Panksepp, 1985, 1987a, b Panksepp et al., 1994 Byers y Walker, 1995).

Los estudios en animales han demostrado además que el juego induce plasticidad neuronal en áreas del cerebro involucradas en el procesamiento sensoriomotor (p. Ej., Corteza parietal, colículos y cuerpo estriado, Gordon et al., 2002), y también en la corteza prefrontal medial (mPFC, Cheng et al., 2008), un área que envía fuertes entradas moduladoras a los circuitos límbicos que controlan el comportamiento social. En los seres humanos, el mPFC inhibe la agresión y monitorea el comportamiento de aproximación / evitación (Bufkin y Luttrell, 2005 Hall et al., 2010). Por lo tanto, una mayor plasticidad en el mPFC después del juego podría indicar que el juego ayuda a mejorar el control de las redes de comportamiento social. El juego brusco en ratas también parece promover el desarrollo cerebral al aumentar la expresión del factor neurotrófico derivado del cerebro (BDNF) en la amígdala y la corteza prefrontal (Gordon et al., 2003), y la del factor de crecimiento similar a la insulina. 1 (IGF-1) en las cortezas frontal y posterior (Burgdorf et al., 2010). En consecuencia, se ha sugerido que la plasticidad neuronal inducida por el juego podría apoyar la aparición de comportamientos similares a los de los adultos (Cooke y Shukla, 2011). Aunque se debe tener precaución al extrapolar los hallazgos del trabajo con animales a los humanos, los datos actuales sugieren que, en todas las especies, el juego puede ser un proceso neuroconductual fundamental que está respaldado por (y produce cambios en) los principales circuitos neuronales corticales y subcorticales que apoyan la cognición. emoción y función sensoriomotora. Sin embargo, los métodos neurocientíficos que se han utilizado con éxito con modelos animales son demasiado invasivos para llevarlos a cabo en seres humanos. Además, incluso cuando se compara ostensiblemente el juego & # x201Cmotor & # x201D, el comportamiento de juego humano es mucho más complejo y menos estereotipado que el comportamiento de lucha de juego de los animales, como se describió anteriormente. En consecuencia, la investigación de la neurociencia en el juego en humanos tiende a evaluar el cambio neurológico utilizando un diseño previo a la prueba, posterior a la prueba (Newman et al., 2016), o a estudiar la actividad neuronal mientras el participante observa, pero no participa en el juego. comportamiento (Smith et al., 2013). Ir más allá de estas limitaciones empíricas para identificar los mecanismos neuronales que subyacen en el comportamiento de juego complejo y en curso en los seres humanos presenta un desafío considerable. Para abordar este desafío, la neuroimagen humana no invasiva (por ejemplo, EEG, fMRI) y los enfoques de codificación del comportamiento psicológico podrían combinarse en un análisis multimodal que puede producir avances en la comprensión de los mecanismos neurocognitivos humanos del juego. Sin embargo, actualmente no existe un marco metodológico que sea adecuado para realizar un análisis multimodal del juego que abarque el cerebro, la cognición y el comportamiento.

Limitaciones de las medidas actuales de juego para análisis neuronales

Para combinar los análisis neuronales y conductuales del juego, la conducta de interés debe identificarse con una resolución temporal precisa. Además, la codificación del comportamiento debería poder identificar el cambio entre varios estados de juego y no juego, para facilitar el análisis intra e interindividual de los cambios correspondientes en la actividad neuronal. Sin embargo, los esquemas de codificación de juego existentes se basan predominantemente en clasificaciones globales, listas de verificación o recuentos de frecuencia de los comportamientos de juego, por lo que no capturan información temporal sobre cuando se producen comportamientos de juego específicos o información sobre comportamientos ajenos al juego. Ejemplos de esquemas de calificación global incluyen Poon et al. (2012) que calificaron las sesiones de juego entre padres e hijos en una escala de 1 & # x2013 5 para la atención conjunta, la imitación y el juego con objetos, y St George et al. (2016) que le dio a cada padre una puntuación global en 10 dimensiones diferentes, incluida la sensibilidad (qué tan receptivo fue el padre a las señales del niño y las señales), consideración positiva (demostraciones de amor y afecto) y estimulación del desarrollo cognitivo (enseñanza). Los enfoques de la lista de verificación incluyen la Prueba del juego simbólico (Lowe y Costello, 1976), que captura los comportamientos que los niños muestran cuando juegan con un conjunto específico de juguetes, como & # x2018feeds doll & # x2019 y & # x2018mueve un camión o un remolque. & # x2019 Un enfoque similar de lista de verificación se encuentra en muchas medidas de juego hechas a medida, como la utilizada por Pellegrini (1992), donde se observaba a los niños en el patio de recreo y se registraban los comportamientos mostrados, incluyendo Interacción entre pares y juego de objetos. En un análisis del juego infantil, Belsky y Most (1981) aplicaron un enfoque de lista de verificación a los datos muestreados en el tiempo, utilizando una lista de verificación para registrar el nivel de juego & # x2018más competente & # x2019 observado en cada período de 10 s. Los autores reconocen que este enfoque oculta la información sobre la frecuencia de los comportamientos de juego, ya que cualquier comportamiento de juego de & # x2018bajo nivel & # x2019 que ocurra en el mismo período de 10 s no puede ser capturado por el esquema de codificación. Pero la información sobre los comportamientos de & # x2018high level & # x2019 también está oculta, incluida su sincronización y frecuencia precisas dentro de cada período de 10 s. Desde una perspectiva de la neurociencia, saber que un tipo de juego ocurrió en algún punto dentro de una ventana de 10 s no proporciona suficiente precisión temporal para que se lleven a cabo análisis de eventos bloqueados.

Algunos estudios han capturado información temporal más precisa en el contexto del juego madre / padre y # x2013 infantil (p. Ej., Courage et al., 2010 James et al., 2012 Zuccarini et al., 2017). Sin embargo, ningún esquema de codificación específico del juego que conozcamos mide el comportamiento de juego entre el padre y el bebé en una resolución de tiempo que sea lo suficientemente precisa (es decir, decenas de milisegundos) para ser compatible con los análisis neuronales (p. Ej., EEG). Además, estos esquemas existentes no están diseñados para capturar y analizar la evolución temporal de una gama de estados de comportamiento como un continuo fluido. Por ejemplo, Zuccarini et al. (2017) codificó & # x2018 exploración de objetos motores & # x2019 en el juego infantil, donde el bebé exploraba un objeto con las manos o la boca, y Koterba et al. (2014) codificaron el mirar y la boca del bebé durante el juego con un sonajero. Si bien tales esquemas reflejan nuestro énfasis en la codificación continua y fina de la conducta de juego, lo hacen codificando una o dos acciones específicas y luego analizando cómo la duración o frecuencia de esas acciones varían entre los bebés. Nuestro esquema de codificación, por el contrario, está diseñado para rastrear el comportamiento en continua evolución de los participantes a medida que se mueven a través del juego, la enseñanza / aprendizaje, la atención conjunta y otros estados similares, y facilita el análisis dentro y entre los participantes. Un sistema de codificación multimodal para el juego materno-infantil, adecuado para analizar patrones concurrentes en datos conductuales y neurológicos en tiempo real, requiere la flexibilidad para capturar una amplia variedad de estados conductuales, combinados con un grado muy alto de precisión temporal, y tal no existe una combinación en los esquemas de codificación de juego establecidos.

En segundo lugar (como lo indican los estudios con animales), el juego es una actividad social interactiva muy compleja que activa una combinación de circuitos neuronales sensoriomotores, cognitivos y socioemocionales, cada uno de los cuales puede soportar dimensiones de comportamiento separables. Es importante destacar que ninguna dimensión del comportamiento por sí sola es suficiente para definir el juego, ya que el comportamiento en cada dimensión puede ocurrir tanto en situaciones lúdicas como no lúdicas. Más bien, es la co-ocurrencia de la actividad en múltiples dimensiones lo que define un episodio lúdico. Aquí, contribuimos a la formación de una comprensión neurocientífica del juego presentando un modelo y un marco metodológico que captura el comportamiento en una alta resolución temporal y como un estado multidimensional en continua evolución, en lugar de como un conjunto de acciones discretas o como una estructura global. resumen de tipo o calidad. De esta manera, la codificación del comportamiento se adapta bien a la alta resolución temporal de los datos de EEG, maximizando la agudeza con la que se puede explorar la correlación del comportamiento cerebral.

Descripción general y consideraciones del marco metodológico de codificación de juegos

Como se describió en la sección anterior, la investigación neurocientífica actual sugiere que el comportamiento del juego está respaldado por tres circuitos neuronales principales que controlan la motivación y el afecto (es decir, estructuras límbicas), el rendimiento motor (es decir, estructuras somatosensoriales) y la función ejecutiva de orden superior (es decir, estructuras límbicas). , estructuras corticales frontales) respectivamente. A partir de esto, el marco de codificación propuesto captura el comportamiento de juego orientado a objetos a lo largo de tres dimensiones correspondientes: socioemocional (SE), sensoriomotor (SM) y cognitivo (C). El comportamiento de los bebés & # x2019 o de los adultos & # x2019 se codifica de acuerdo con la presencia o ausencia [1/0] de actividad congruente con el juego en cada dimensión. La intención del esquema de codificación es capturar de manera confiable formas comunes de comportamiento lúdico mientras se conserva la claridad de la codificación para cada dimensión (fundamentando el esquema en comportamientos claros y observables). Teniendo esto en cuenta, la actividad congruente con el juego se definió para cada dimensión de la siguiente manera:

La actividad congruente con el juego en la dimensión SE ocurre cuando hay una exhibición de afecto positivo o neutral, consistente con la idea de que el juego conduce a un sentido interno de recompensa (Burghardt, 2005 Miller, 2017). La actividad congruente con el juego en la dimensión SM ocurre cuando la pareja (madre o bebé) manipula y / o toca voluntariamente el objeto de manera exploratoria. Este criterio refleja el lugar central del comportamiento voluntario autodirigido en las definiciones de juego (Burghardt, 2005 Lillard et al., 2013 Miller, 2017 Sawyer, 2017). Finalmente, la dimensión C captura la presencia de compromiso atencional, así como el nivel de complejidad de este compromiso cognitivo. Por lo tanto, nuestro análisis tiene como objetivo explorar & # x2018minds-on & # x2019 play, en lugar de & # x2018minds-off & # x2019 play. Por & # x2018minds-on play, & # x2019 nos referimos al juego en el que la cognición y la atención se involucran mediante, por ejemplo, la observación del comportamiento del objeto / compañero, la exploración del objeto o la comunicación. & # x2018 El juego sin la mente, & # x2019, por el contrario, se refiere al comportamiento de juego en el que la cognición y la atención se desvinculan del objeto de juego y el compañero, y el objetivo del juego es de naturaleza más sensorial, por ejemplo, masticar un juguete o golpearlo en el mesa mientras mira a otra parte. Según nuestro marco, una juego-congruente El estado es aquel en el que el bebé (o el adulto) exhibe al mismo tiempo una actividad congruente con el juego en las 3 dimensiones (es decir, [1 1 1]).

Una característica importante de este marco es que no asume ninguna definición de juego.En cambio, hemos basado el marco en comportamientos específicos observables que se consideran factores importantes en diferentes conceptualizaciones del juego, a saber, la exhibición de afecto y el compromiso físico y cognitivo voluntario con el objeto del juego (Lillard et al., 2013 Miller, 2017). Al analizar los patrones de co-ocurrencia de estos comportamientos básicos, nuestro marco se puede utilizar para evaluar similitudes y agrupaciones potenciales de diferentes estados sociales relacionados con el juego (y, eventualmente, sus sustratos neuronales), que en el futuro pueden conducir a una definición de juego. comportamiento que se basa en la neurociencia. Otro punto fuerte del marco propuesto es que reduce la carga del juicio subjetivo sobre si se está produciendo o no una actividad lúdica. Más bien, las conductas objetivas y observables están codificadas (por ejemplo, tocar un juguete, mirar un juguete, sonreír, etc.) y la presencia o ausencia de juego (y otros estados sociales relacionados) se infiere a partir de patrones de conducta que concurren temporalmente. Basar la codificación en comportamientos observables específicos tiende a resultar en niveles más altos de acuerdo entre evaluadores (Bakeman y Gottman, 1997).

Objetivos y predicciones

El objetivo del estudio actual es desarrollar un nuevo marco metodológico para codificar el comportamiento lúdico de bebés & # x2019 y adultos & # x2019 que sea compatible, en el futuro, con el análisis de EEG. Como se mencionó anteriormente, la investigación actual sobre las interacciones madre-bebé y el desarrollo infantil a menudo mide los procesos de crianza que ocurren dentro de un contexto de juego en lugar del juego en sí, y los esquemas actuales de codificación del juego madre-bebé generalmente carecen de la precisión temporal para integrarse con medidas neuronales. . Por lo tanto, ilustramos la aplicación de nuestro marco de codificación de juego dimensional propuesto usando ejemplos de dos cuerpos diádicos contrastantes de interacciones orientadas a objetos madre e infante durante condiciones experimentales que no eran propicias (Condición 1) o propicias (Condición 2) para provocar juegos lúdicos. comportamiento. En la Condición 1, se desalentó el comportamiento lúdico pidiendo a las madres que se concentraran en enseñar a los bebés sobre el valor social (deseable o no deseable) de los objetos. En la Condición 2, se fomentó el comportamiento lúdico pidiendo a las madres que usaran los objetos en interacciones espontáneas, divertidas y naturales con su hijo. Estos cuerpos comprenden mediciones tanto conductuales como de electroencefalografía (EEG) que se obtuvieron simultáneamente de las madres y sus bebés. Sin embargo, para este estudio, nos enfocamos en análisis de comportamiento. Se pretende que la codificación de la conducta de juego en el marco metodológico propuesto se asimile fácilmente con, e informe, el análisis futuro de los datos neuronales que también se recopilaron durante el juego entre adultos y bebés. Tenemos dos conjuntos específicos de predicciones con respecto a las diferencias de comportamiento entre las condiciones que deberían surgir después de la aplicación del marco de codificación:

(1) En la Condición 2 (propicia), el estado modal de los bebés & # x2019 será [1 1 1] (es decir, el juego congruente en las tres dimensiones), pero en la Condición 1 (no propicia), [1 1 1] no ser el estado modal

(2) En la condición 2 en relación con la condición 1, los bebés mostrarán:

(a) Disminución del afecto negativo

(b) Mayor compromiso sensoriomotor

(c) Compromiso cognitivo (atencional) equivalente

La primera predicción se refiere a la sensibilidad del marco de codificación para detectar comportamientos relacionados con el juego. En pocas palabras, si las madres recibieron instrucciones de jugar con sus bebés, entonces (aunque los codificadores no emiten juicios directos sobre si los participantes estaban jugando o no) esperamos que el marco de codificación revele que un estado de congruencia con el juego es de hecho el estado social más frecuente. que mostraban los bebés. El segundo conjunto de predicciones se refiere a la utilidad del marco en la identificación de diferencias en la calidad de la interacción social y la sincronicidad temporal con la díada.


YouTube: Implementación de prácticas basadas en evidencia en correcciones comunitarias (2013)

Este seminario web ofrece algunas estrategias prácticas para mejorar el proceso de implementación y lograr mejores resultados del programa. James Bonta describe los esfuerzos del equipo de investigación de Public Safety Canada para desarrollar el modelo de Iniciativa de Capacitación Estratégica en Supervisión Comunitaria (STICS) y los pasos sistemáticos a gran escala que se tomaron para ayudar a asegurar la implementación exitosa del programa. STICS se enfoca en el rol de los oficiales de libertad condicional y trabaja para mejorar la efectividad de sus interacciones diarias con los ofensores.


Objetivos de aprendizaje

  • Definir y notar las diferencias entre las siguientes formas de memoria: memoria de trabajo, memoria episódica, memoria semántica, memoria colectiva.
  • Describe las tres etapas del proceso de aprender y recordar.
  • Describa las estrategias que se pueden utilizar para mejorar el aprendizaje original o la codificación de la información.
  • Describe estrategias que pueden mejorar el proceso de recuperación.
  • Describe por qué el dispositivo mnemónico clásico, el método de los loci, funciona tan bien.

Diferencia entre NTSC, PAL y SECAM

Durante los primeros días de la televisión, surgieron una serie de estándares que gobiernan cómo se debe transmitir la información desde el estudio a los hogares de los espectadores. Finalmente salieron tres NTSC, PAL y SECAM. Hay una serie de diferencias entre NTSC, PAL y SECAM. Comencemos con las frecuencias de actualización. NTSC usa una frecuencia de actualización de 60Hz, mientras que PAL y SECAM usan una frecuencia de actualización de 50Hz. La frecuencia de actualización es el número de veces que cambia la imagen en la pantalla para simular la ilusión de movimiento. Por lo tanto, NTSC tiene un movimiento más fluido debido a los 10 cuadros más por segundo.

En consecuencia, NTSC solo usa 525 y solo 486 de ellos son visibles. El resto se utiliza como mecanismos de control de sincronización y retroceso vertical. PAL y SECAM tienen una resolución más alta al usar 100 líneas más por cuadro. De las 625 líneas de PAL y SECAM, 576 son visibles y el resto también se utilizan para control.

El mayor inconveniente de NTSC es su incapacidad para corregir los colores en pantalla automáticamente. Por lo tanto, necesita un control de tinte que el usuario debe ajustar manualmente. Al ver el problema, los fabricantes de PAL y SECAM utilizaron la inversión de fase para corregir automáticamente el color y eliminar la necesidad de un control de tinte.

No solo PAL y SECAM tienen similitudes porque PAL simplemente trató de mejorar NTSC mientras que SECAM cambió algunos de los enfoques utilizados por NTSC, uno de ellos es el uso de QAM. QAM son las siglas de Quadrature Amplitude Modulation y es la técnica que utilizan tanto NTSC como PAL para modular la crominancia. SECAM no utilizó QAM, sino que optó por utilizar la modulación de frecuencia o FM. Esto le da a SECAM una señal superior en distancias más largas pero una mayor diafonía entre la luminancia y la crominancia.

Otra área en la que SECAM es diferente de PAL y NTSC es en la transmisión de azul y rojo. Con NTSC y PAL, tanto el azul como el rojo se transmiten al mismo tiempo. Con SECAM, se envían alternativamente. La forma alternativa de enviar colores en SECAM elimina los artefactos de color que están presentes en NTSC y PAL, pero reduce a la mitad la resolución del color.

1.NTSC usa una frecuencia de actualización de 60Hz mientras que PAL y SECAM usan 50Hz
2.NTSC tiene 525 líneas, mientras que PAL y SECAM usan 625 líneas
3.NTSC requiere un control de tinte, mientras que PAL y SECAM no
4.NTSC y PAL usan QAM mientras que SECAM usa FM
5.NTSC y PAL envían los colores rojo y azul juntos mientras que SECAM los envía alternativamente


(Desafortunadamente, las menciones web enviadas antes de 2021 no aparecerán aquí).

¿Qué libro o PDF recomendaría para tener detalles extremadamente matemáticos sobre el análisis longitudinal (se dan todos los pasos de las pruebas)? Cualquiera que sea el nivel, básico o avanzado? Gracias

Esta es una publicación realmente útil, que sé que hiciste hace bastante tiempo. Me preguntaba si se ha encontrado con una situación en la que necesita imponer una estructura a la correlación de los efectos aleatorios (del segundo nivel de un modelo de dos niveles). En mi caso, tengo períodos de medición (y los individuos se miden solo una vez. Hay un efecto específico de grupo en cada período (U_t, t en (0,1,2,3,4)), y estos efectos específicos de grupo son correlacionadas en particular, las correlaciones se degradan con el tiempo (AR1). No creo que lme4 o nlme puedan acomodar esto, pero pensé que tal vez me corregirías si me equivoco.

Gracias por un sitio web tan bueno. Entendí las ecuaciones de tres niveles gracias a este sitio web. Estoy trabajando en un dato educativo: modelo de crecimiento discontinuo de tres niveles. Tengo un problema en el código al usar variables de control. ses (estatus socioeconómico), lcsize (tamaño de la clase) son variables de control variables en el tiempo y demo (demográfico, como urbano / rural, como 0,1) es una variable de control invariante en el tiempo. Después del modelo nulo, usé este código. No estoy seguro de si esto es correcto. PERF85 es la variable dependiente, TIME, TRANS y RECOV son variables independientes. Sin embargo, no recibo ningún error.
step1a y lt-lme (PERF85

1 | ENTITY_CD, FINNL85,
control = lmeControl (opt = "optim"))
mientras uso (TIME | ses) o (1 | ses) obtengo un error

¡Esto es muy útil! ¡Gracias!

Gracias por este sitio web. Intenté seguir tus comandos (en R), pero no obtuve tus datos. Por favor, ¿puede mostrarnos cómo obtener sus datos? Estoy tratando de entender tus pensamientos. Gracias de antemano, Marcos Salvino

Hola Kristoffer. ¿Cómo se adaptaría la tendencia cuadrática a los datos sin tx? ¿Debería simplemente eliminarse de la ecuación?

(tiempo + I (tiempo ^ 2)) +
(tiempo + I (tiempo ^ 2) | sujetos),
datos = datos)

Además, ¿cómo se puede acceder a los resultados para trazar el efecto temporal en los gráficos mientras lo hace?

Estimado Kristoffer,
Gracias por este gran sitio web. Tengo una pregunta sobre los modelos parcialmente anidados. ¿Qué valor debería usar para la variable de agrupación "terapeuta" para aquellos sujetos que están en la condición de control (es decir, para aquellos sujetos que no están anidados dentro de los terapeutas)? He visto varias sugerencias: los sujetos de control están todos en grupos de tamaño 1, los sujetos de control están todos en un grupo grande, use el valor "ninguno" para los sujetos de control. ¿Qué recomendarías?
Gracias por adelantado,
Mirjam Moerbeek

Kristoffer Magnusson 31 de octubre de 2018

Hola Mirjam, esa es una gran pregunta y algo que he estado planeando aclarar en esta publicación. Siempre que la variable indicadora (control = 0) esté incluida en la fórmula de efectos aleatorios, todos los efectos aleatorios de tercer nivel serán cero en el grupo de control, para todas las sugerencias de codificación que mencione. Usando esta parametrización, es mi experiencia que la elección de la codificación no hará una diferencia práctica en las estimaciones (al menos cuando se usa lme4). Usar el valor "ninguno" (carácter) será equivalente a codificarlo como un grupo grande. Por razones prácticas, tiendo a codificarlos como si estuvieran en 1 grupo grande o, a veces (si es una simulación) como pertenecientes al mismo número de grupos que el grupo de tratamiento. El modelo se ajustará un poco más rápido en comparación con el uso de singleton, y ranef () y coef () solo incluirán 1 fila de tercer nivel para el grupo de control.

Para aclarar, aquí hay un pequeño ejemplo usando powerlmm

Estimado Kristoffer,
¡Gracias por la pronta respuesta! He simulado algunos conjuntos de datos grandes para diferentes especificaciones de la variable terapeuta y los resultados se ajustan a su respuesta.
Los mejores deseos,
Mirjam

Hola Kristoffer,
Tengo otra pregunta sobre el centrado. Me preguntaba si necesito centrar el tiempo adicionalmente (por ejemplo, el centrado de la gran media) si uso <0,1,2,2,2> y <0,0,0,1,2> como los dos períodos de tiempo. ¿O significa esto automáticamente que el tiempo se centró en el tercer punto de tiempo de modo que este punto de tiempo sirvió como cero?
J.

Hola kristoffer
Este artículo fue muy oportuno ya que estoy en el proceso de analizar los datos para mi primer estudio de doctorado. ¿Podría explicar más qué quiere decir con "En el esquema 1, los dos coeficientes de pendiente representan la pendiente real en el período de tiempo respectivo. Mientras que en el esquema 2 el coeficiente para el tiempo 2 representa la desviación de la pendiente en el período 1, es decir, si la estimación es 0, entonces la tasa de cambio es la misma en ambos períodos ".

Entiendo que en el esquema 1 se comparan pendientes creadas por puntos de tiempo 0: 2 a 3: 5. El esquema 2 es un poco confuso. ¿Está diciendo que aquí está comparando una pendiente hipotética 3: 5 (basada en lo que se esperaría dada una pendiente 0: 2) con 3: 5?

También me preguntaba si podría describir cómo codificar tres curvas de crecimiento (es decir, mis datos tienen dos discontinuidades) utilizando los dos esquemas que describió anteriormente. Tengo datos con 15 puntos de tiempo (0:14). En los puntos de tiempo 5: 7 hubo una manipulación experimental que creó un cambio hacia abajo del punto de tiempo 4 al 5, y luego un cambio hacia arriba del punto 7 al 8.

La mayoría de los estudios que he analizado como ejemplos solo tienen una discontinuidad única o no describen adecuadamente cómo codificaron sus variables.

Hola Kristoffer, actualmente estoy trabajando en un modelo de crecimiento por partes de 2 niveles con dos pendientes separadas y estaba usando tu esquema de codificación 1, ¡que fue realmente útil! ¿Podría proporcionar una referencia en la que se introdujo este esquema de codificación?
Gracias,
J.

Kristoffer Magnusson 17 de julio de 2018

Hola Johanna, el esquema de codificación es de Raudenbush & amp Bryk (2001) p 179.

Hola Kristoffer, excelente publicación. ¿Sabes cómo implementar la membresía múltiple con lme4? Saludos

Kristoffer Magnusson 24 de junio de 2018

¡Gracias! La última vez que verifiqué que encajar un modelo de membresía múltiple en lme4 requirió algo de piratería, sin embargo, eso fue hace varios años. brms o MCMCglmm son probablemente mejores opciones, consulte brms :: mm o MCMCglmm :: mult.memb

Slobodan Ivanovic 2018-06-24

Hola Kristoffer,
Me pregunto si R puede manejar un modelo multinivel de 3 niveles donde el DV es una variable de conteo (es decir, un modelo GLMM). Sé que esto no es posible en SAS en Proc GLIMMIX.
Gracias.
Shamel

Kristoffer Magnusson 2018-05-15

Hola, puede usar lme4 para ajustar GLMM de 3 niveles, simplemente reemplace "lmer" con "glmer" y agregue el argumento "family".

Gracias, Kristoffer. Hasta donde yo sé, glmer (paquete lme4) no nos permite especificar una estructura para la matriz residual (R). Si esto es correcto, ¿hay alguna forma de modelar 3 niveles de anidamiento usando NLME, que tiene flexibilidad para especificar la matriz R?

Kristoffer Magnusson 2018-05-15

Eso es correcto, lme4 no admite efectos secundarios R. Puede probar MASS :: glmmPQL, que permite ajustar GLMM con efectos secundarios R usando nlme bajo el capó.

Gracias, 2 preguntas rápidas de seguimiento:
(1) Cuando dice que lme4 no admite efectos secundarios R, ¿significa esto que solo puede modelar una matriz residual con varianzas constantes y covarianzas cero (es decir, una matriz de componentes de varianza)?

(2) ¿GlmmPQL permite ajustar modelos con 3 niveles de anidamiento? ? No pude encontrar nada en la documentación sobre esto.

Hola Kristoffer,
En primer lugar, gracias por esta guía.
Esta es una guía muy útil.
Tengo una pregunta sobre el modelo de dos niveles.
En realidad, tengo datos con dos grupos de tratamiento que tienen mediciones repetidas. El tamaño total de la muestra es 50, 25 cada grupo y las mediciones repetidas se toman 14 veces cada individuo. Quiero aplicar un modelo de dos niveles a estos datos. Quiero comprobar qué tratamiento es mejor. Quiero mantener las mediciones repetidas de un individuo en el nivel uno. ¿Podría ayudarme con este problema?
Gracias por adelantado.

Me preguntaba sobre el ajuste por partes de la variable de tiempo. Tengo un conjunto de datos en el que los puntos de tiempo son 1:60 días y cada 2 o 3 días (por lo tanto, no 1, 2, 3, etc., sino 1, 3, 5, 8, etc.) y desigual entre sujetos. Intenté usar el segundo formato tal como lo presenta aquí, y luego ajusté el modelo, pero obtengo un error de rango deficiente en lmer y un error de singularidad en lme. ¿Tienes una idea de cómo solucionarlo?

Muchas gracias por esta guía. Realmente necesito su ayuda con un problema: necesito ajustar un modelo con datos de series de tiempo, como un modelo mixto. Tengo llegadas horarias de disfraces que ingresan a una empresa. Estoy tratando de ajustar un modelo mixto con FE como el día de la semana y la hora del día. Como ME, estoy tratando de estimar una matriz de covariables ar (1) durante un día (5 horas desde el tiempo de apertura hasta el cierre, por lo que la matriz es de 5x5) y una matriz de covariedades ar (1) para entre días (5 días a la semana, entonces Matriz 5x5), por lo que mis datos son:

fecha día hora CantCustomers
1/1/2014 1 10 125
1/1/2014 1 11 110
1/1/2014 1 12 180
1/1/2014 1 13 173
1/1/2014 1 14 68
2/1/2014 2 10 114
2/1/2014 2 11 92
.

Mi modelo en R es actualmente:
y & lt = lme (CantCustomer

1 | fecha, correlación = corAR (1), datos = datosh)

Cuando verifico la matriz R, es de 5x5. Pero la matriz D me dio solo 1 valor, de varianza. Entiendo que esta es una identidad sigma * de 5x5. La matriz es entonces el resultado de V = Z'DZ + R y también una matriz de 5x5.
¿Cómo puedo configurar la matriz R y D para que se ajuste a la matriz de covarianza horaria (intra) y diaria (entre) como un Ar (1)?

Muchas gracias, cualquier consejo puede ayudar.

Este es un contenido de blog tan bueno que nos muestra un gran aprendizaje. Es bueno que haya podido dar algunos términos de valores sobre el uso de modelos lineales jerárquicos para resolver problemas como este. Esto nos da un aprendizaje ideal.

¡Gracias por compartir esto! Definitivamente se convirtió en una de mis referencias imprescindibles para hacer modelos longitudinales en R. Solo tengo una pregunta rápida, quizás no relacionada: entonces, ¿cómo hacer un análisis de series de tiempo multinivel (N & gt1) en R? ¿Qué paquetes se pueden usar para eso?


Temas y códigos

& lsquoThemes & rsquo son características de los relatos de los participantes que caracterizan percepciones y / o experiencias particulares que el investigador considera relevantes para la pregunta de investigación.

& lsquoCoding & rsquo es el proceso de identificar temas en las cuentas y adjuntar etiquetas (códigos) para indexarlos.

Los investigadores generalmente elegirán definir características como temas en los que se repiten varias veces en el conjunto de datos, dentro y / o entre transcripciones. Sin embargo, esta no es una regla estricta. Si un solo comentario hecho por un participante es particularmente útil para dilucidar su relato, es posible que desee diseñar un tema que lo resuma e incluirlo en su plantilla.

Es importante reconocer que los temas de la investigación cualitativa no se esconden en los datos, esperando ser "descubiertos" por el investigador. Más bien, surgen del compromiso de un investigador en particular con el texto, cuando intenta abordar una pregunta de investigación en particular. Como tales, son herramientas pragmáticas para ayudar al investigador a producir su relato de los datos. Al decidir si definir los temas y cómo, tenga en cuenta esta intención pragmática, hágase la pregunta: "Si codifico el texto de esta manera, ¿es probable que me ayude a mejorar mi comprensión de los datos?"

Para una discusión de las cuestiones filosóficas con respecto a la relación entre el texto, el análisis y la experiencia del participante y rsquos, visite la sección ¿Qué es el análisis de plantillas? sección.

Para una discusión sobre cómo juzgar la calidad de la codificación temática, visite la sección de controles de calidad y reflexividad.


ERRORES COMUNES AL REALIZAR UNA REVISIÓN DE LA CARTA RETROSPECTIVA

1. No crear preguntas de investigación bien definidas y claramente articuladas

El primer paso al planificar un RCR es formular una serie de preguntas de investigación que deben responderse en función de los resultados del estudio. Las preguntas de investigación deben ser lógicas, fluyendo de lo que se sabe o se cree que es verdadero a lo que se desconoce y requiere validación [5].Las preguntas de investigación forman la estructura inicial del RCR y guían el diseño del estudio y el análisis de datos. Es importante dedicar el tiempo adecuado a redactar y revisar cuidadosamente las preguntas de investigación para el estudio.

No hay escasez de consejos publicados sobre el desarrollo y el perfeccionamiento de las preguntas de investigación. Hemos seleccionado un marco para el diseño y la articulación de preguntas de investigación para presentarlo aquí que nos ha resultado particularmente útil. Aunque no se menciona en ninguna otra parte de este manuscrito, recomendamos Morgan y Harmon [6] al lector como una referencia adicional para enmarcar adecuadamente las preguntas de investigación. El marco que se presenta aquí es una tipología de preguntas de investigación. Estas preguntas generalmente se clasifican en una de tres categorías: preguntas de descripción, preguntas de relación o preguntas de comparación.

Las preguntas de descripción son comunes a los RCR. Estas preguntas describen lo que está sucediendo o lo que existe [7]. La investigación de incidencia y prevalencia es descriptiva. Por ejemplo, podríamos formular la pregunta de investigación & # x0201c ¿Cuál es la tasa de incidencia de la influenza estacional entre la población anciana en Bélgica para el año 2009? & # X0201d La respuesta a esta pregunta podría expresarse en términos de porcentaje. Otros ejemplos pueden incluir preguntas que comparen características y resultados de pacientes con neumonía adquirida en la comunidad que fueron ingresados ​​en la Unidad de Cuidados Intensivos (UCI) con los pacientes tratados en la sala [8] o caracterizar los patrones de derivación del dolor en la articulación de la cadera [9]. Los resultados de las preguntas descriptivas a menudo se informan como proporciones, porcentajes, recuentos de frecuencia, medidas de tendencia central (media, mediana, moda), medidas de variabilidad (desviación estándar, rango) o varios cuadros, gráficos y tablas.

Las cuestiones de relación se refieren a cómo se relacionan los fenómenos entre sí [10]. Como ejemplo, podríamos plantear la pregunta: & # x0201c ¿Cuál es la relación entre el agotamiento ocupacional y la ideación suicida entre los residentes médicos en el noreste de Estados Unidos? & # X0201d población de interés y luego calcular un coeficiente de correlación para cuantificar esta relación. Otros ejemplos de este tipo podrían incluir examinar la relación entre los niveles de enfermedades infecciosas notificadas por la comunidad y la tasa de defectos del tubo neural [11] o evaluar la relación entre el uso de fármacos antipseudomonas y el desarrollo de una resistencia a Pseudomonas aeruginosa [12]. Las respuestas a este tipo de preguntas a menudo se proporcionan en forma de coeficiente de correlación. Existen muchos coeficientes de este tipo, y la elección adecuada del coeficiente viene dictada por la naturaleza de los datos, incluido el nivel de datos (nominal, ordinal, intervalo o relación) y la distribución subyacente.

Las preguntas de comparación se refieren a diferencias de grupo o subgrupo en una variable (o variables) de interés. Los grupos discutidos en la definición anterior representan niveles de la variable independiente, mientras que la variable examinada entre grupos se conoce como variable dependiente. Las preguntas de comparación se utilizan a menudo en ensayos clínicos aleatorios. En un ejemplo simple, un grupo de pacientes con un trastorno en particular se asigna aleatoriamente a un tratamiento o a un grupo de control. El grupo de tratamiento recibe la intervención mientras que el grupo de control no. Al final del ensayo, se comparan los dos grupos para evaluar la eficacia del tratamiento. Si bien las preguntas de comparación pueden buscar establecer relaciones de causa-efecto, no siempre es así. Podríamos plantear la pregunta de investigación: & # x0201c ¿Hay diferencias entre hombres y mujeres en la satisfacción con la vida después de una lesión de la médula espinal? & # X0201d En este ejemplo, la variable independiente no se puede asignar al azar ya que el género es una característica predeterminada. Sin embargo, esta pregunta todavía se presta a la comparación. Otros ejemplos podrían incluir comparar el efecto de la reanimación con líquidos con albúmina o solución salina sobre la mortalidad entre los pacientes de la UCI [13] o comparar cuatro dietas de pérdida de peso de baja a alta ingesta de carbohidratos para determinar los efectos sobre la pérdida de peso [14]. Este tipo de preguntas a menudo se responden comparando estadísticamente medidas de tendencia central entre grupos.

2. No considerar las cuestiones de muestreo a priori

Hay dos cuestiones principales que deben abordarse con respecto a las consideraciones de muestreo: el tamaño de la muestra y la estrategia de muestreo. Se puede utilizar un proceso matemático llamado análisis de potencia para ayudar a determinar la cantidad de gráficos necesarios para un estudio en particular. El poder se refiere a la probabilidad de que una prueba estadística rechace la hipótesis nula cuando la hipótesis alternativa es verdadera. Consideremos un ejemplo para ilustrar el poder con mayor claridad. En un ejemplo mencionado anteriormente, planteamos una pregunta de investigación relacionada con las diferencias de género en la satisfacción con la vida después de una lesión de la médula espinal. Siempre se afirma que la hipótesis nula no refleja ninguna diferencia. En este ejemplo, la hipótesis nula establecería que no se encontrarían diferencias entre hombres y mujeres en una medida de satisfacción con la vida. Por supuesto, los investigadores a menudo están interesados ​​en rechazar la hipótesis nula a favor de la alternativa (existen diferencias estadísticamente significativas entre hombres y mujeres en cuanto a satisfacción con la vida). Se requiere tener suficiente poder para detectar esta diferencia estadísticamente significativa entre géneros.

El poder está relacionado con el tamaño de la muestra. Los estudios con muestras más grandes tienen mayor poder. Para el investigador que realiza un RCR, se necesita una cantidad suficiente de registros de pacientes para obtener suficiente poder. Se pueden encontrar varios enfoques para realizar un análisis de poder en libros de texto de estadística y artículos de revistas. Un programa de software descargable gratuito llamado G * Power 3.0 es una alternativa popular y fácil de usar para realizar análisis de potencia. Faul y col. [15] discuten la utilidad de este programa con mayor detalle.

La segunda consideración del muestreo es la estrategia utilizada para obtener la muestra de registros de pacientes. Si bien hay muchos procedimientos de muestreo disponibles para el investigador, aquí mencionaremos 3 métodos. Quizás la estrategia más común utilizada en los RCR es la muestra de conveniencia. Con este método, los investigadores utilizan la información médica a su disposición. Si bien este método presenta limitaciones con respecto a la generalización de los resultados, es un método práctico, particularmente útil cuando se trata de casos más raros y tamaños de muestra más pequeños. El segundo tipo de método de muestreo, el muestreo aleatorio, es el estándar de oro de estas técnicas. Los elementos de la población se seleccionan al azar, lo que significa que cada registro médico tiene la misma oportunidad de ser seleccionado para codificación. La selección aleatoria tiene en cuenta el sesgo de muestreo y permite a los investigadores generalizar sus resultados a la población de la que se extrajo la muestra. Cabe señalar que para utilizar eficazmente el muestreo aleatorio, el investigador debe tener acceso a una cantidad sustancial de registros de pacientes. En los casos en que sea factible el muestreo aleatorio, recomendamos su uso. La tercera técnica de muestreo se conoce como muestreo sistemático. Mediante este procedimiento, el investigador selecciona cada k-ésimo registro médico para codificarlo. Si bien este método adopta un enfoque sistemático para el muestreo, no es verdaderamente aleatorio. Como antes, este método requiere acceso a una gran cantidad de registros de pacientes. En resumen, en los casos en que los investigadores tienen acceso a múltiples sitios o planean estudiar un trastorno o procedimiento médico común, el método preferido es el muestreo aleatorio. En los casos en que la información sea limitada, una muestra de conveniencia será más práctica.

3. No operacionalizar adecuadamente las variables en el estudio.

La operacionalización se refiere al acto de & # x0201ct traducir un constructo en su manifestación & # x0201d [16]. Este término se usa ampliamente en la investigación de las ciencias sociales. Refiriéndonos a nuestro ejemplo anterior de agotamiento, podríamos adherirnos a una definición de construcción comúnmente aplicada de agotamiento como multidimensional para incluir una sensación de despersonalización, reducción de logros personales y agotamiento emocional. Para operacionalizar estos aspectos del agotamiento, Maslach et al. [17] creó el Inventario de agotamiento de Maslach, que es la evaluación de agotamiento más utilizada en la literatura de investigación. Dirigiendo nuestra atención a los RCR, la operacionalización de las variables ocurre a través de dos pasos. El primer proceso que debe ocurrir a priori es identificar y definir las variables de estudio. En algunos casos, este proceso puede ser sencillo. La categorización de un valor de laboratorio en particular, por ejemplo, estará dentro o fuera de los rangos normales, y estos rangos son bien aceptados y bien comprendidos dentro de una comunidad de práctica. En otros casos, las cosas están menos claras. Por ejemplo, considere la variable dolor. El dolor es una experiencia sensorial que también tiene componentes afectivos. Katz y Melzack [18] y Melzack y Casey [19] discuten las dimensiones psicológicas sensorial-discriminativas, motivacionales-afectivas y cognitivoevaluativas del dolor. Además, considere la calidad del dolor. En algunos casos, los pacientes describen el dolor como punzantes, mientras que otros hablan de una sensación de ardor. Por tanto, es importante pensar en cómo debe operarse el dolor para un estudio en particular. El segundo paso, e igualmente importante, en la operacionalización de las variables de un estudio requiere una revisión de la literatura para descubrir cómo otros estudios de investigación han operacionalizado estas mismas variables en trabajos similares o relevantes. Con referencia al ejemplo del dolor, podríamos encontrar que los investigadores anteriores que estudiaron el dolor utilizaron escalas de calificación verbal o numérica, escalas analógicas visuales o el Cuestionario de dolor de McGill para operacionalizar esta variable. Al comprender cómo se ha hecho operativa una variable en estudios anteriores, es probable que los investigadores puedan adoptar un enfoque existente que sea adecuado para abordar una pregunta de investigación en particular. Una herramienta útil que se puede desarrollar e incluir en el manual de investigación es un apéndice o glosario de definiciones de las variables y estudios relevantes para respaldar el uso y las definiciones en el RCR [2]. Al completar estos pasos, los investigadores de RCR pueden aumentar significativamente la confiabilidad y validez de las variables bajo investigación [20].

4. No capacitar y monitorear a los extractores de datos

Los extractores de datos que revisan y codifican cada gráfico juegan un papel importante con respecto a la calidad de los datos. La codificación debe realizarse de forma precisa y coherente, o la validez de los datos puede verse comprometida. Antes de cualquier extracción de datos, los codificadores deben ser entrenados cuidadosamente. La capacitación debe incluir una revisión cuidadosa de las variables, el manual de procedimientos y el formulario de extracción de datos. Después de esta revisión, los extractores de datos deben codificar varios registros de pacientes para la práctica. El investigador debe verificar cuidadosamente estos elementos codificados para garantizar su precisión. Cualquier discrepancia en la codificación debe revisarse conjuntamente y discutirse para aclarar cualquier problema. Después del entrenamiento, será necesario un seguimiento continuo. Esto asegura que los extractores estén codificando los datos de manera precisa y oportuna. En las etapas iniciales de abstracción, podría ser ventajoso programar una reunión con los extractores de datos para discutir o aclarar cualquier problema que pueda haber ocurrido durante el proceso de codificación.

Además de la precisión, la coherencia y la puntualidad, los extractores de datos también deben seguir siendo objetivos. Se recomienda que los extractores permanezcan ciegos al propósito del estudio y las preguntas de investigación que el RCR está tratando de abordar. Como señalan acertadamente Gearing et al. [2], & # x0201c Los abstractores ciegos a la hipótesis reducen el sesgo del revisor, específicamente la posibilidad de que su evaluación se vea influida por el conocimiento de otros (p. Ej., Investigadores), la preocupación por afectar negativamente el resultado del estudio o interpretar su abstracción como demasiado indulgente o áspero. & # x0201d

5. No utilizar formularios de abstracción estandarizados

Al realizar un RCR, el formulario de abstracción ayudará a garantizar una medida de coherencia entre los extractores y, al mismo tiempo, ayudará a reducir los errores en la recopilación de datos. Los formularios de abstracción pueden ser en papel o electrónicos, los cuales tienen ventajas únicas. Las claves para cualquier tipo de forma de abstracción son tener una organización lógica similar en flujo al formato de los gráficos originales y simplicidad de pregunta / respuesta para las diversas variables operacionales involucradas en el estudio [2,20].

Los formularios en papel pueden ser rentables y fáciles de usar en varios sitios de codificación. Si el investigador opta por utilizar un formulario en papel, se deben proporcionar pautas específicas para el registro y la codificación de datos, o se proporciona un formulario de datos estructurado y preimpreso que no deja espacio para la interpretación del codificador de la recopilación de datos. Sin embargo, los formularios en papel demuestran una desventaja para la recopilación de datos cuando se consideran la escritura a mano del codificador, la transcripción de respuestas y el almacenamiento y mantenimiento de formularios [1, 2].

Los formularios electrónicos son ventajosos cuando se consideran factores de investigaciones de RCR a gran escala, centralización del almacenamiento de datos, reducción de errores de entrada y transcripción y reducción del número de pasos de entrada y evaluación de datos [2]. Además, los formularios electrónicos, generalmente creados a partir de un paquete de software de computadora como Microsoft Access, limitan la interpretación del codificador y pueden estar diseñados para permitir solo respuestas de código específicas para la variable [1, 2].

Independientemente del formato elegido para el formulario de abstracción, los codificadores deben recibir capacitación, explicaciones y revisiones de las respuestas de código esperadas para cada variable operacionalizada. Los métodos adicionales para reducir el error en la codificación incluyen proporcionar números exactos de espacios de caracteres para que el codificador ingrese la respuesta. Esto elimina una cantidad de error de la variabilidad en la interpretación y respuesta del codificador en cada paso del proceso de codificación [1]. Se debe utilizar una pequeña prueba piloto para garantizar que se puedan completar todos los elementos codificados del formulario de abstracción. En algunos casos, cabe señalar que deben combinarse categorías particulares debido a la poca frecuencia de presentación de informes. También se pueden encontrar errores u omisiones mediante el empleo de una prueba piloto informal durante esta fase. (Discutimos la necesidad de un estudio piloto más sustancial a continuación).

6. No crear un manual de procedimientos adecuado para la abstracción de datos.

Además del formulario de abstracción, se debe crear y compilar un manual de procedimientos de abstracción para los codificadores a fin de garantizar aún más la precisión, confiabilidad y coherencia para todos los revisores y codificadores. Este manual debe tener una explicación clara y detallada de los protocolos y pasos para la extracción de datos. Cuando sea posible, ilustraciones o imágenes de los elementos del formulario, los datos o las ubicaciones de las variables en el registro médico y la entrada de respuesta aceptable en el formulario de abstracción. Se debe incluir información adicional como abreviaturas de datos, interpretaciones, sinónimos y símbolos taquigráficos en el texto del manual cuando se discute el análisis de la variable y la entrada del formulario o se debe proporcionar como un glosario para referencia en el manual [20].

Con la mayor frecuencia posible, el investigador debe detallar la lógica del árbol de decisión / raíz para tantas situaciones de codificación potenciales como se pueda prever. Si se produce una decisión de codificación imprevista, el investigador puede optar por actualizar el manual de procedimiento para incluir el nuevo tallo de decisión de codificación para que todos los codificadores involucrados puedan seguir las mismas decisiones lógicas que puedan surgir. Esta recomendación es particularmente útil si hay varios codificadores o varios sitios involucrados en la investigación. La estandarización es clave para garantizar que los datos del estudio sean de buena calidad.

7. No desarrollar explícitamente criterios de inclusión y exclusión

Además de las instrucciones para la extracción de datos, el manual de procedimientos y el protocolo de investigación deben abordar la inclusión y exclusión de gráficos relacionados con el estudio. Generalmente, una vez que se ha desarrollado la pregunta de investigación y se han establecido los protocolos, incluida la operacionalización de las variables del estudio, la muestra de la historia clínica del paciente se puede identificar fácilmente. Sin embargo, una inspección minuciosa y una revisión cuidadosa de la literatura y la muestra de gráficos pueden permitir que se produzcan algunas exclusiones. Las sugerencias para los criterios de exclusión incluyen la falta suficiente de variables registradas en la tabla, la presencia de comorbilidades excesivas o de confusión y / o la presencia de factores de confusión que degradarían suficientemente la validez de los datos de la tabla. Por otro lado, una metodología de estudio más restrictiva puede requerir que se cumplan los criterios específicos descritos en los protocolos y el manual de abstracción antes de su inclusión en el RCR. En cualquiera de las metodologías, los protocolos deben ser claros, los extractores deben estar capacitados en los protocolos de inclusión y exclusión, y los extractores e investigadores deben revisar los gráficos excluidos para asegurar que los gráficos no sean incluidos o excluidos innecesariamente por uno o varios individuos.

8. No abordar la confiabilidad entre evaluadores o entre evaluadores

La confiabilidad intra e interevaluador es una estimación estadística calculada de que la codificación de los informes es coherente dentro o entre los evaluadores. La confiabilidad intra-evaluador evalúa las diferencias cuando el mismo abstractor recodifica el mismo conjunto de variables. La confiabilidad entre evaluadores mide específicamente la capacidad de dos o más extractores independientes para reproducir codificación idéntica. La confiabilidad entre evaluadores también se puede considerar como una medida de la cantidad de error entre los codificadores del conjunto de variables de datos [1].

La confiabilidad entre evaluadores debe calcularse y medirse utilizando Cohen & # x02019s kappa (& # x003ba), en lugar de calcular la tasa o el porcentaje de concordancia entre los codificadores. El uso de un cálculo del porcentaje de concordancia solo indicará la concordancia de los codificadores dentro de abstracciones similares o idénticas, mientras que & # x003ba evaluará el grado de concordancia entre / entre los codificadores en comparación con la concordancia total posible mientras se restringe la posibilidad de concordancia por azar [1 ]. El método más fácil para calcular & # x003ba es utilizar un sitio de Internet como la Calculadora Kappa en línea que se puede encontrar en http: //justus.randolph. nombre / kappa [21]. Cohen & # x02019s kappa devolverá un resultado dentro del rango de -1 que demuestra un desacuerdo perfecto a +1 que demuestra un acuerdo perfecto. El coeficiente de & # x003ba mínimo aceptable para RCR & # x02019s debe ser +0,6.

Las mediciones de confiabilidad intra-evaluador se comparan utilizando un cálculo de correlación intraclase (ICC). Para realizar un ICC, el abstractor selecciona y vuelve a codificar un número predeterminado y aleatorio de gráficos para codificar la evaluación y el cálculo. Los problemas de error con la confiabilidad intra-evaluador surgen porque las evaluaciones posteriores del codificador tienen la posibilidad de contaminación por el conocimiento de la codificación de datos anterior [1]. ICC se calcula utilizando paquetes de software estadístico SPSS disponible en IBM en www.ibm.com/software/analytics/spss [22], el software gratuito R disponible en http://www.r-project.org [23] y Microsoft Excel , todos los cuales tienen tutoriales en línea como los disponibles en http://www.uvm.edu/

dhowell / StatPages / More_ Stuff / icc / icc.html [24], http://aliquote.org/memos/2011/04/ 29 / computing-intraclass-correlation-with-r [25] y http: // www .real-statistics.com / confiabilidad / intraclass-correlation / [26], respectivamente.

9. No realizar una prueba piloto

Las pruebas piloto, a veces denominadas estudios piloto, son versiones a pequeña escala de una investigación de investigación que carecen de un tamaño de muestra para calcular completamente las estadísticas o responder a la pregunta de investigación, pero se realizan para evaluar el diseño del estudio, su viabilidad y evaluar la metodología y los procedimientos de la investigación. investigación. Además, las pruebas piloto ayudarán a determinar la viabilidad de la abstracción de datos, destacando la frecuencia con la que faltan las variables operacionalizadas en los registros de los pacientes, proporcionando información sobre los procedimientos y tasas de recuperación de gráficos de una institución, probando los criterios de inclusión y exclusión y evaluando el muestreo de datos potenciales. y preocupaciones de confiabilidad.

En general, se recomienda que las pruebas piloto comprendan aproximadamente el 10% de la muestra de investigación objetivo y se seleccionen mediante un proceso aleatorio. Estas recomendaciones ayudan a garantizar que los extractores hayan codificado una cantidad suficiente de registros médicos para sentirse cómodos con el proceso y evaluar la idoneidad de las variables y los esquemas de codificación. La aleatorización garantiza que los gráficos codificados sean representativos de la población de gráficos que es probable que el evaluador vea durante la fase de codificación.

10. No abordar las consideraciones éticas y de confidencialidad

La confidencialidad y la ética en la investigación médica es un campo muy serio y altamente regulado, tanto institucionalmente como a través del gobierno federal. La ética y la supervisión de toda la investigación en seres humanos ha sido codificada en el Título 45, Parte 46 del Código de Regulaciones Federales, específicamente 45CFR46.101 (2009). Para ayudar con la supervisión de la investigación, 45CFR establece y regula la formación de Juntas de Revisión Institucional (IRB), el alcance de la supervisión de la investigación de la IRB y bajo qué circunstancias la investigación está exenta de la aprobación y supervisión de la IRB. De acuerdo con 45CFR46.101 (b) (4) (2009):

Investigación que implique la recopilación o el estudio de datos, documentos, registros, muestras patológicas o muestras de diagnóstico existentes, si estas fuentes están disponibles públicamente o si el investigador registra la información de tal manera que los sujetos no puedan ser identificados, directamente o mediante identificadores. vinculado a los sujetos [27].

Este tipo de investigación descrita lógicamente incluye estudios de RCR, aunque es nuestra recomendación que la IRB apruebe o valide la exclusión de la supervisión de la RCR y sus protocolos, ya que cada IRB puede tener una visión e interpretación únicas de su alcance de supervisión.

La otra consideración que debe tenerse en cuenta en los protocolos de RCR es la responsabilidad legal y ética de adherirse a la ley federal con respecto a la información de salud del paciente. La Ley de Portabilidad y Responsabilidad de Seguros de Salud de 1996 (HIPAA) [28] entre sus muchas disposiciones es la más ampliamente reconocida por establecer estándares con respecto a la confidencialidad de la información médica personal (PMI) a través de la Regla de Privacidad. Según la Regla de privacidad de HIPAA, ubicada en el Título II, subtítulo de Simplificación administrativa de la Ley, todos los proveedores, planes y cámaras de compensación tienen prohibido usar o divulgar información médica protegida, excepto según lo autorice un paciente o cuando lo permita específicamente la regulación. La Regla también se aplica explícitamente a todas las formas de comunicación de información médica, incluidos los medios orales, escritos, electrónicos o cualquier otro medio [29]. No se puede exagerar la importancia de tener en cuenta estos dos códigos éticos y legales al desarrollar y realizar un RCR.


YouTube: Implementación de prácticas basadas en evidencia en correcciones comunitarias (2013)

Este seminario web ofrece algunas estrategias prácticas para mejorar el proceso de implementación y lograr mejores resultados del programa. James Bonta describe los esfuerzos del equipo de investigación de Public Safety Canada para desarrollar el modelo de Iniciativa de Capacitación Estratégica en Supervisión Comunitaria (STICS) y los pasos sistemáticos a gran escala que se tomaron para ayudar a asegurar la implementación exitosa del programa. STICS se enfoca en el rol de los oficiales de libertad condicional y trabaja para mejorar la efectividad de sus interacciones diarias con los ofensores.


Materiales y métodos

Participantes

Este manuscrito describe una serie de experimentos realizados en una cohorte general de 284 participantes (191 mujeres, 93 hombres, rango de edad de 18 a 41 años). Todos los participantes estaban sanos, informaron que eran normósmicos y gozaban de buena salud en el momento del experimento. Ninguna de las mujeres participantes estaba embarazada en el momento del experimento (autoinforme). Los participantes eran todos estudiantes universitarios, reclutados mediante publicidad en los terrenos del campus. Se obtuvo el consentimiento informado por escrito y el consentimiento para publicar de los participantes de acuerdo con los estándares éticos de la Declaración de Helsinki (1964). El experimento fue aprobado por el comité de ética institucional de la Universidad de Bar Ilan (número de referencia ISU20140804001). A los participantes se les pagó por su participación. Para evitar el aprendizaje cruzado, se evaluó a cada participante utilizando solo una condición, con la excepción de los experimentos que se informan en la Figura 4, el suplemento de figura 1.

Diseño experimental

Las mezclas de olor temporal (TOM) estaban compuestas por mezclas de aceites fragantes de naranja (ORG) y canela (CIN), o de los odorantes monomoleculares Citral (CTL) (CAS: 5392-40-5, Sigma-Aldrich) y Dimetil Trisulfuro ( DMTS) (CAS: 3658-80-8, Sigma Aldrich). En ambos casos, los olores se diluyeron a la misma intensidad percibida (CTL: 1: 100, ORG: 1: 1, DMTS, 1: 10000, CIN: 1: 1). Las composiciones de las mezclas de aceites aromáticos se analizaron usando espectrometría de masas por cromatografía de gases (GCMS). Se utilizaron tubos Tenax para atrapar volátiles, y estos se sometieron a GCMS combinado con muestreo dinámico del espacio de cabeza. Los principales componentes de cada aceite según su contribución relativa a la mezcla fueron los siguientes. Aceite de canela: E-cinamaldehído (CAS 14371-10-9), linalol (CAS 78-70-6), o-cimeno (CAS 527-84-4), terpineol (CAS 98-55-5) y acetato de cinamilo ( CAS 103-54-8). Aceite de naranja: limoneno (CAS 138-86-3), gardenol (CAS 93-92-5) y linalol (CAS 78-70-9).

Usamos un olfatómetro personalizado de dilución de aire controlado por computadora para entregar olores en diferentes órdenes y longitudes de secuencia. Los estímulos olfativos duraron 200 ms. El intervalo entre estímulos (es decir, el tiempo entre dos TOM) se estableció en 8 s. La siguiente prueba (es decir, el siguiente par de TOM) se presentó 23 s después de que el participante presentó su respuesta (que generalmente duraba

2-5 s). Tres tonos cortos (1 s) informaron al participante sobre la presentación de olor entrante. Los participantes se sometieron a varias pruebas de entrenamiento para practicar la sincronización de una inhalación nasal de más de 1 s, justo antes de que se liberaran los olores. Para simplificar la tarea, se indicó a los participantes que el primer TOM estaba arreglado. A los participantes se les permitió tres ensayos para familiarizarse con los dos TOM y la configuración experimental, y luego realizaron 20 ensayos. La respiración nasal se registró utilizando una cánula nasal unida a un transductor sensible a la presión, que tradujo estos cambios de presión en una señal eléctrica a través de una interfaz USB (Plotkin et al., 2010). La señal fue adquirida y digitalizada a una frecuencia de muestreo de 1 KHz. El registro de la respiración y los desencadenantes de olores y la interfaz de usuario se diseñaron y realizaron en un entorno LabView (National Instruments).

Entrega de olor

Los estímulos de olores y aire se administraron a través de un sistema de suministro de olores de tres puertos construido a medida. Para evitar efectos cruzados entre los dos puertos de olor (por ejemplo, cambios de presión de aire o contaminación por olor), usamos tres canales completamente independientes (Figura 1A). Para liberar un olor, se pasó aire purificado (grado médico 99,999%, Maxima, Israel) a través de un vial de vidrio que contenía un olor líquido. La selección de olores se realizó utilizando una válvula solenoide controlada digitalmente (07V113, AIGNEP) en cada uno de los canales de distribución dedicados. Se utilizaron válvulas de retención unidireccionales para evitar el reflujo de la corriente de aire olorizada. El flujo de aire se estableció en 1,8 LPM usando un controlador de flujo másico (Alicat Scientific). Todos los días se cambiaban los olores y los tubos de plástico que liberaban olores.

Para evitar la contaminación, los participantes se sentaron frente a tres puertos de olor dedicados, uno para cada uno de los olores (la distancia desde los puertos de olor era

5 cm, Figura 1A). Usamos una demora relativamente corta (8 s) entre la primera y la segunda TOM porque las pruebas preliminares mostraron que las demoras más largas entre las dos presentaciones de TOM disminuyeron las tasas de éxito, incluso cuando se les pidió a los participantes que discriminaran entre dos olores muy diferentes. Verificamos que este ISI corto era adecuado probando la capacidad de los participantes para discriminar entre los dos pares de olores (Figura 2). En el primer conjunto de experimentos (ORG y CIN), el primer TOM se estableció como AB y el segundo TOM fue AB o BA. En parte del segundo conjunto de experimentos (CTL y DMTS), cambiamos el primer TOM a BA. Modificamos este diseño para asegurarnos de que no hubiera ningún sesgo relacionado con la identidad del primer TOM. Como los resultados fueron los mismos, agrupamos los datos.

Para asegurar que la presentación del olor coincidiera con la fase de inhalación del ciclo respiratorio, instruimos a los participantes para que inhalaran durante al menos 1 s justo antes de que se presentara el olor (utilizando una señal auditiva antes de la llegada de cada olor). Los ensayos en los que la presentación del olor se extendió hasta el período de exhalación o comenzó prematuramente antes de la inhalación se excluyeron del análisis (Figura 1F, métodos). El retraso entre los dos olores, Δt, se estableció en ≤600 ms. No probamos retrasos más prolongados porque la duración total de un TOM tenía que ser más corta que un período de inhalación típico (alrededor de 1 a 1,5 s) para ser percibido en su totalidad y para minimizar la posibilidad de discriminar entre los dos TOM al darse cuenta de que estaban compuesto por dos olores consecutivos. De hecho, con retrasos prolongados (por ejemplo, 300 y 600 ms), algunos participantes se dieron cuenta de que los TOM estaban compuestos por dos olores consecutivos. No excluimos a estos participantes de nuestro análisis para evitar sesgos.

Medidas PID

Para estimar la concentración de olor, utilizamos un detector de mini fotoionizador (miniPID, Aurora Scientific). La amplitud de la respuesta PID depende de la identidad del olor, su concentración y la distancia desde la entrada. Cada olor provoca una respuesta diferente que está relacionada con la eficacia con la que se puede ionizar el olor medido. Medimos las respuestas del PID de la puerta a los olores y su dinámica temporal en diferentes retrasos. Todos los TOM provocaron una dinámica de respuesta similar. Las respuestas de PID variaron entre estos retrasos y el orden de presentación del olor, lo que refleja las interacciones entre olores y las interacciones de flujo entre tuberías. Sin embargo, la concentración de olor de los componentes del olor y los TOM en tres retrasos probados fue muy similar en los ensayos de la misma condición. Por lo tanto, se esperaba que cada TOM provocara la misma percepción del olor en todos los ensayos. Medidas de concentración de olores al colocar la entrada PID

5 cm de los puertos de olor (es decir, la ubicación de la nariz de los participantes) revelaron que se preservó el orden de presentación del olor, aunque la concentración de olor fue más variable entre los ensayos cuando se midió a una distancia de 5 cm (Figura 1 — Suplemento de figura 1C ).

Post-procesamiento y análisis

La señal de respiración se puso a cero y se estableció como línea base de modo que los valores positivos denotaran inhalación y los valores negativos denotaran exhalación. Se aplicó un filtro de paso de banda de 0,05 a 100 Hz al trazo respiratorio para eliminar los artefactos de alta frecuencia y la deriva. A continuación, después de la normalización mediante una puntuación z, todo el trazo registrado se sometió a una segmentación en épocas, cada una de las cuales consta de una única prueba.

Para asegurarnos de que los pulsos de olor llegaran en sincronía con el período de inhalación, verificamos meticulosamente todos los pulsos de olor que ocurren dentro del período de inhalación. Calificamos la duración proporcional de los pulsos de olor dentro de cada TOM, o en otras palabras, cuánto del pulso de olor se presentó al mismo tiempo que la inhalación nasal. Un algoritmo automático asignó una puntuación a cada prueba, de acuerdo con la puntuación combinada de todos los desencadenantes de olor en una prueba determinada. Se aplicó un criterio estricto que estableció el límite en 1,00 (todos los pulsos de olor se presentaron completamente dentro de las inhalaciones) para rechazar cualquier ensayo que fuera cuestionable. Finalmente, este proceso automatizado fue respaldado por una inspección visual de prueba por prueba. Los resultados siguieron siendo los mismos cuando usamos un límite menos estricto (por ejemplo, 0,9) o cuando asumimos que la compensación de olor era más larga que la estimación obtenida de las mediciones de PID (por ejemplo, asumiendo una compensación de olor muy larga de 200 ms).

En el paradigma experimental principal, cada sesión constaba de 20 ensayos. Cualquier participante con un número total de menos de 14 ensayos válidos (70% de la sesión) fue excluido del análisis adicional. Esto llevó a la exclusión de 73 participantes luego del análisis de sus datos de ensayo por ensayo, dejando un total de 284 participantes. El número de ensayos eliminados dentro del grupo de participantes restantes que participaron en los paradigmas de TOM ascendió a 162 de 1940 y 223 de 3972 ensayos, o el 8,3% y el 5,6% de todos los eventos en los experimentos CIN / ORG y CTL / DMTS. respectivamente. Los resultados fueron prácticamente los mismos cuando usamos un criterio menos estricto para excluir ensayos.

Como se detalla anteriormente, se presentaron dos TOM en cada ensayo. Cada uno estaba compuesto por dos pulsos de olor rápidos separados por un retardo predefinido. Los estímulos de olor se presentaron después de una señal auditiva que instruía a los participantes a inhalar. Sin embargo, los estímulos no se activaron para bloquearse con una determinada fase de inhalación nasal y, como resultado, se encontraron en diferentes fases de la respiración. La fase respiratoria se calculó con la función "ángulo" de MATLAB aplicada a la transformada de Hilbert del trazo respiratorio. El producto de este cálculo es la fase que aumenta gradualmente de –π / 2 a π / 2 en el transcurso de la fase inhalatoria del ciclo respiratorio (ver Figura 2D para visualización).

Análisis estadístico

Dada la naturaleza de dos alternativas de la tarea, el resultado de cada prueba podría ser "correcto" o "incorrecto", y la tasa de éxito en el nivel de probabilidad fue de 0,50. Por lo tanto, se calculó que una tasa de éxito significativamente mayor que la probabilidad en un experimento de 20 ensayos fue de 0,70 (función de distribución acumulativa binomial). En los casos en los que el número de ensayos válidos fue inferior a 20, este umbral se ajustó en consecuencia, de modo que excedió significativamente el azar en un nivel de significación de p & lt0.05. De manera similar, el rendimiento del grupo medio se comparó con el azar (0,50) mediante una prueba de signos de dos caras. Se llevó a cabo una comparación del rendimiento del grupo en todas las condiciones mediante un análisis de varianza (ANOVA). Para reducir el efecto de los valores atípicos en el resultado de este estudio, enfocamos nuestro análisis en las medianas del grupo. Sin embargo, los resultados siguieron siendo los mismos incluso cuando usamos la media del grupo (es decir, realizamos una prueba t de dos caras para una muestra).

Además de la prueba estándar de los datos frente a una hipótesis nula, también sometimos los datos de cada análisis a pruebas t bayesianas de una muestra con la tasa de éxito como variable dependiente, en comparación con el rendimiento al azar (0,50) con una prueba previa de Cauchy de 0,707. (Good, 1962) El conocimiento adicional obtenido con este enfoque se deriva de su capacidad para cuantificar la evidencia a favor de dos modelos diferentes. Las estadísticas bayesianas son ventajosas para evaluar la probabilidad relativa de la hipótesis nula sobre la hipótesis experimental. Esta ventaja se convierte en una necesidad cuando uno no rechaza H0 (es decir, "resultados no significativos") y necesita cuantificar la evidencia para respaldar esta afirmación (Leech y Morgan, 2002). Por lo tanto, detallamos nuestras estadísticas bayesianas junto con cada prueba de signos regular. El estadístico bayesiano de salida utilizado fue el BF10, que representa una razón de probabilidades, es decir, la probabilidad o simplemente la probabilidad de que los datos sean bajo ambas hipótesis. En nuestra interpretación, utilizamos la recomendación estándar de que un BF10 entre 1 y 3 implica evidencia anecdótica, 3-10 sustancial y 10-30 evidencia sólida, donde BF10 cuantifica la evidencia de la hipótesis alternativa en relación con la hipótesis nula. Todos los análisis estadísticos bayesianos se realizaron en JASP (2019) versión 0.9.2. Los análisis estadísticos sobre los valores de la fase respiratoria se llevaron a cabo utilizando funciones implementadas en CircStat MATLAB, una caja de herramientas para estadísticas circulares que son análogas a la prueba t regular o ANOVA (Berens, 2009).

Análisis de similitud de olores

Para estimar la distancia de percepción olfativa entre todos los olores, pedimos a una cohorte separada (N = 12 para ΔT = 300 ms y N = 9 para ΔT = 600 ms) que calificara los cuatro olores utilizados en este estudio (ORG, CIN, CTL y DMTS ) sobre la base de once descriptores verbales seleccionados de una lista de descriptores de uso común (Dravnieks, 1985). Para calcular la similitud de olor, proyectamos las calificaciones de los participantes en un espacio bidimensional utilizando el análisis de componentes principales (PCA), un método de reducción de dimensionalidad común en la investigación olfativa (Haddad et al., 2010 Khan et al., 2007). Como era de esperar, los olores de ORG y CIN abarcaron un área superpuesta en este espacio perceptivo, mientras que CTL y DMTS fueron marcadamente divergentes, con CTL más similar a ORG / CIN (Figura 2 — suplemento de figura 1A). Cuantificamos la similitud calculando la distancia euclidiana media entre las calificaciones para cada olor. La distancia perceptual entre CTL y DMTS fue significativamente mayor que la distancia entre ORG y CIN (CTL / DMTS = 5,52 ± 1,12 CIN / ORG = 4,18 ± 1,25, emparejados t prueba: t (110) = 5.95, p = 3.1E – 8, d de Cohen = 1.12, Figura 2 — suplemento de figura 1C). Además, esta distancia perceptiva fue apoyada por un algoritmo predictivo que permite estimar la similitud perceptiva a partir de la estructura molecular (Snitz et al., 2013). La distancia entre ORG y CIN fue de 0,0189 radianes, pero la distancia entre CIT y DMTS fue de 1,0846 radianes. En otras palabras, se esperaba que discriminar entre TOM compuestos de citral y DMTS fuera un orden de magnitud más fácil que discriminar entre ORG y CIN. Por último, al igual que con los TOM anteriores, verificamos que estos dos olores tenían intensidades similares (CTL = 7,37 ± 1,19, DMTS = 7,12 ± 0,99, prueba t pareada, t (7) = −0,84, d de Cohen = 0,23, p = 0,43, N = 8).

Análisis de fase TOM

Calculamos las fases de respiración de los dos TOM para pruebas correctas e incorrectas. Se correlacionaron las fases respiratorias para el primer y segundo TOM, tanto para ensayos correctos como incorrectos (correcto: correlación circular r = 0.67, p = 1.33E-8, ​​N = 100 incorrecto: r = 0.549, p = 1.02E-5, N = 84). Las pendientes de la línea de regresión estaban cerca de uno (correcto: a = 0,942, incorrecto: a = 0,859), lo que indica que los participantes tendían a encontrar los dos TOM en fases similares de respiración (Figura 2 — suplemento de figura 1A-B).Además, la comparación de las diferencias entre las fases de respiración de los TOM (p. Ej., TOM1 - TOM2) en ensayos correctos e incorrectos mostró además que las diferencias de fase en los ensayos correctos e incorrectos no eran significativamente diferentes (prueba no paramétrica de múltiples muestras para medianas iguales , Prueba de Kruskal-Wallis para datos circulares: mediana de la población compartida = −0,478 rad, KW (P) = 1,402, p = 0,236 Figura 2 — suplemento de figura 1C – D). Finalmente, una adaptación de la prueba de Kolmogorov-Smirnoff para datos circulares (prueba de Kuiper) realizada iterativamente 10,000 veces sobre los datos de fase sugirió un valor p promedio de 0.985, con un estadístico k promedio de 480.15 ± 126.4 en otras palabras, las distribuciones de fase eran muy similares.

Percepción olfativa de los TOM

Odorante y TOM se calificaron utilizando un conjunto de once descriptores verbales (agradable, afrutado, comestible, picante, químico, medicinal, ahumado, alcohólico, atractivo, terroso y sulfuroso) en una escala de 0 a 10 (donde 0 correspondía a 'nada' y 10 correspondían a 'mucho'). Cabe señalar que en las sesiones de calificación que involucran TOM, estos siempre se calificaron antes que los olores monomoleculares para evitar sesgos en la percepción de las mezclas, dado que sus componentes aislados aún no se habían presentado por separado. Los participantes podían someterse a varias rondas olfativas del mismo olor antes de la calificación, y se impuso un intervalo entre estímulos de 23 s entre dos presentaciones de olor. Los datos de dos descriptores de un solo participante se corrompieron y fueron reemplazados por el promedio del grupo para ese puntaje. Antes de la proyección en el espacio del componente principal, las calificaciones de los descriptores se normalizaron utilizando el puntaje Z.


Objetivos de aprendizaje

  • Definir y notar las diferencias entre las siguientes formas de memoria: memoria de trabajo, memoria episódica, memoria semántica, memoria colectiva.
  • Describe las tres etapas del proceso de aprender y recordar.
  • Describa las estrategias que se pueden utilizar para mejorar el aprendizaje original o la codificación de la información.
  • Describe estrategias que pueden mejorar el proceso de recuperación.
  • Describe por qué el dispositivo mnemónico clásico, el método de los loci, funciona tan bien.

Diferencia entre NTSC, PAL y SECAM

Durante los primeros días de la televisión, surgieron una serie de estándares que gobiernan cómo se debe transmitir la información desde el estudio a los hogares de los espectadores. Finalmente salieron tres NTSC, PAL y SECAM. Hay una serie de diferencias entre NTSC, PAL y SECAM. Comencemos con las frecuencias de actualización. NTSC usa una frecuencia de actualización de 60Hz, mientras que PAL y SECAM usan una frecuencia de actualización de 50Hz. La frecuencia de actualización es el número de veces que cambia la imagen en la pantalla para simular la ilusión de movimiento. Por lo tanto, NTSC tiene un movimiento más fluido debido a los 10 cuadros más por segundo.

En consecuencia, NTSC solo usa 525 y solo 486 de ellos son visibles. El resto se utiliza como mecanismos de control de sincronización y retroceso vertical. PAL y SECAM tienen una resolución más alta al usar 100 líneas más por cuadro. De las 625 líneas de PAL y SECAM, 576 son visibles y el resto también se utilizan para control.

El mayor inconveniente de NTSC es su incapacidad para corregir los colores en pantalla automáticamente. Por lo tanto, necesita un control de tinte que el usuario debe ajustar manualmente. Al ver el problema, los fabricantes de PAL y SECAM utilizaron la inversión de fase para corregir automáticamente el color y eliminar la necesidad de un control de tinte.

No solo PAL y SECAM tienen similitudes porque PAL simplemente trató de mejorar NTSC mientras que SECAM cambió algunos de los enfoques utilizados por NTSC, uno de ellos es el uso de QAM. QAM son las siglas de Quadrature Amplitude Modulation y es la técnica que utilizan tanto NTSC como PAL para modular la crominancia. SECAM no utilizó QAM, sino que optó por utilizar la modulación de frecuencia o FM. Esto le da a SECAM una señal superior en distancias más largas pero una mayor diafonía entre la luminancia y la crominancia.

Otra área en la que SECAM es diferente de PAL y NTSC es en la transmisión de azul y rojo. Con NTSC y PAL, tanto el azul como el rojo se transmiten al mismo tiempo. Con SECAM, se envían alternativamente. La forma alternativa de enviar colores en SECAM elimina los artefactos de color que están presentes en NTSC y PAL, pero reduce a la mitad la resolución del color.

1.NTSC usa una frecuencia de actualización de 60Hz mientras que PAL y SECAM usan 50Hz
2.NTSC tiene 525 líneas, mientras que PAL y SECAM usan 625 líneas
3.NTSC requiere un control de tinte, mientras que PAL y SECAM no
4.NTSC y PAL usan QAM mientras que SECAM usa FM
5.NTSC y PAL envían los colores rojo y azul juntos mientras que SECAM los envía alternativamente


(Desafortunadamente, las menciones web enviadas antes de 2021 no aparecerán aquí).

¿Qué libro o PDF recomendaría para tener detalles extremadamente matemáticos sobre el análisis longitudinal (se dan todos los pasos de las pruebas)? Cualquiera que sea el nivel, básico o avanzado? Gracias

Esta es una publicación realmente útil, que sé que hiciste hace bastante tiempo. Me preguntaba si se ha encontrado con una situación en la que necesita imponer una estructura a la correlación de los efectos aleatorios (del segundo nivel de un modelo de dos niveles). En mi caso, tengo períodos de medición (y los individuos se miden solo una vez. Hay un efecto específico de grupo en cada período (U_t, t en (0,1,2,3,4)), y estos efectos específicos de grupo son correlacionadas en particular, las correlaciones se degradan con el tiempo (AR1). No creo que lme4 o nlme puedan acomodar esto, pero pensé que tal vez me corregirías si me equivoco.

Gracias por un sitio web tan bueno. Entendí las ecuaciones de tres niveles gracias a este sitio web. Estoy trabajando en un dato educativo: modelo de crecimiento discontinuo de tres niveles. Tengo un problema en el código al usar variables de control. ses (estatus socioeconómico), lcsize (tamaño de la clase) son variables de control variables en el tiempo y demo (demográfico, como urbano / rural, como 0,1) es una variable de control invariante en el tiempo. Después del modelo nulo, usé este código. No estoy seguro de si esto es correcto. PERF85 es la variable dependiente, TIME, TRANS y RECOV son variables independientes. Sin embargo, no recibo ningún error.
step1a y lt-lme (PERF85

1 | ENTITY_CD, FINNL85,
control = lmeControl (opt = "optim"))
mientras uso (TIME | ses) o (1 | ses) obtengo un error

¡Esto es muy útil! ¡Gracias!

Gracias por este sitio web. Intenté seguir tus comandos (en R), pero no obtuve tus datos. Por favor, ¿puede mostrarnos cómo obtener sus datos? Estoy tratando de entender tus pensamientos. Gracias de antemano, Marcos Salvino

Hola Kristoffer. ¿Cómo se adaptaría la tendencia cuadrática a los datos sin tx? ¿Debería simplemente eliminarse de la ecuación?

(tiempo + I (tiempo ^ 2)) +
(tiempo + I (tiempo ^ 2) | sujetos),
datos = datos)

Además, ¿cómo se puede acceder a los resultados para trazar el efecto temporal en los gráficos mientras lo hace?

Estimado Kristoffer,
Gracias por este gran sitio web. Tengo una pregunta sobre los modelos parcialmente anidados. ¿Qué valor debería usar para la variable de agrupación "terapeuta" para aquellos sujetos que están en la condición de control (es decir, para aquellos sujetos que no están anidados dentro de los terapeutas)? He visto varias sugerencias: los sujetos de control están todos en grupos de tamaño 1, los sujetos de control están todos en un grupo grande, use el valor "ninguno" para los sujetos de control. ¿Qué recomendarías?
Gracias por adelantado,
Mirjam Moerbeek

Kristoffer Magnusson 31 de octubre de 2018

Hola Mirjam, esa es una gran pregunta y algo que he estado planeando aclarar en esta publicación. Siempre que la variable indicadora (control = 0) esté incluida en la fórmula de efectos aleatorios, todos los efectos aleatorios de tercer nivel serán cero en el grupo de control, para todas las sugerencias de codificación que mencione. Usando esta parametrización, es mi experiencia que la elección de la codificación no hará una diferencia práctica en las estimaciones (al menos cuando se usa lme4). Usar el valor "ninguno" (carácter) será equivalente a codificarlo como un grupo grande. Por razones prácticas, tiendo a codificarlos como si estuvieran en 1 grupo grande o, a veces (si es una simulación) como pertenecientes al mismo número de grupos que el grupo de tratamiento. El modelo se ajustará un poco más rápido en comparación con el uso de singleton, y ranef () y coef () solo incluirán 1 fila de tercer nivel para el grupo de control.

Para aclarar, aquí hay un pequeño ejemplo usando powerlmm

Estimado Kristoffer,
¡Gracias por la pronta respuesta! He simulado algunos conjuntos de datos grandes para diferentes especificaciones de la variable terapeuta y los resultados se ajustan a su respuesta.
Los mejores deseos,
Mirjam

Hola Kristoffer,
Tengo otra pregunta sobre el centrado. Me preguntaba si necesito centrar el tiempo adicionalmente (por ejemplo, el centrado de la gran media) si uso <0,1,2,2,2> y <0,0,0,1,2> como los dos períodos de tiempo. ¿O significa esto automáticamente que el tiempo se centró en el tercer punto de tiempo de modo que este punto de tiempo sirvió como cero?
J.

Hola kristoffer
Este artículo fue muy oportuno ya que estoy en el proceso de analizar los datos para mi primer estudio de doctorado. ¿Podría explicar más qué quiere decir con "En el esquema 1, los dos coeficientes de pendiente representan la pendiente real en el período de tiempo respectivo. Mientras que en el esquema 2 el coeficiente para el tiempo 2 representa la desviación de la pendiente en el período 1, es decir, si la estimación es 0, entonces la tasa de cambio es la misma en ambos períodos ".

Entiendo que en el esquema 1 se comparan pendientes creadas por puntos de tiempo 0: 2 a 3: 5. El esquema 2 es un poco confuso. ¿Está diciendo que aquí está comparando una pendiente hipotética 3: 5 (basada en lo que se esperaría dada una pendiente 0: 2) con 3: 5?

También me preguntaba si podría describir cómo codificar tres curvas de crecimiento (es decir, mis datos tienen dos discontinuidades) utilizando los dos esquemas que describió anteriormente. Tengo datos con 15 puntos de tiempo (0:14). En los puntos de tiempo 5: 7 hubo una manipulación experimental que creó un cambio hacia abajo del punto de tiempo 4 al 5, y luego un cambio hacia arriba del punto 7 al 8.

La mayoría de los estudios que he analizado como ejemplos solo tienen una discontinuidad única o no describen adecuadamente cómo codificaron sus variables.

Hola Kristoffer, actualmente estoy trabajando en un modelo de crecimiento por partes de 2 niveles con dos pendientes separadas y estaba usando tu esquema de codificación 1, ¡que fue realmente útil! ¿Podría proporcionar una referencia en la que se introdujo este esquema de codificación?
Gracias,
J.

Kristoffer Magnusson 17 de julio de 2018

Hola Johanna, el esquema de codificación es de Raudenbush & amp Bryk (2001) p 179.

Hola Kristoffer, excelente publicación. ¿Sabes cómo implementar la membresía múltiple con lme4? Saludos

Kristoffer Magnusson 24 de junio de 2018

¡Gracias! La última vez que verifiqué que encajar un modelo de membresía múltiple en lme4 requirió algo de piratería, sin embargo, eso fue hace varios años. brms o MCMCglmm son probablemente mejores opciones, consulte brms :: mm o MCMCglmm :: mult.memb

Slobodan Ivanovic 2018-06-24

Hola Kristoffer,
Me pregunto si R puede manejar un modelo multinivel de 3 niveles donde el DV es una variable de conteo (es decir, un modelo GLMM). Sé que esto no es posible en SAS en Proc GLIMMIX.
Gracias.
Shamel

Kristoffer Magnusson 2018-05-15

Hola, puede usar lme4 para ajustar GLMM de 3 niveles, simplemente reemplace "lmer" con "glmer" y agregue el argumento "family".

Gracias, Kristoffer. Hasta donde yo sé, glmer (paquete lme4) no nos permite especificar una estructura para la matriz residual (R). Si esto es correcto, ¿hay alguna forma de modelar 3 niveles de anidamiento usando NLME, que tiene flexibilidad para especificar la matriz R?

Kristoffer Magnusson 2018-05-15

Eso es correcto, lme4 no admite efectos secundarios R. Puede probar MASS :: glmmPQL, que permite ajustar GLMM con efectos secundarios R usando nlme bajo el capó.

Gracias, 2 preguntas rápidas de seguimiento:
(1) Cuando dice que lme4 no admite efectos secundarios R, ¿significa esto que solo puede modelar una matriz residual con varianzas constantes y covarianzas cero (es decir, una matriz de componentes de varianza)?

(2) ¿GlmmPQL permite ajustar modelos con 3 niveles de anidamiento? ? No pude encontrar nada en la documentación sobre esto.

Hola Kristoffer,
En primer lugar, gracias por esta guía.
Esta es una guía muy útil.
Tengo una pregunta sobre el modelo de dos niveles.
En realidad, tengo datos con dos grupos de tratamiento que tienen mediciones repetidas. El tamaño total de la muestra es 50, 25 cada grupo y las mediciones repetidas se toman 14 veces cada individuo. Quiero aplicar un modelo de dos niveles a estos datos. Quiero comprobar qué tratamiento es mejor. Quiero mantener las mediciones repetidas de un individuo en el nivel uno. ¿Podría ayudarme con este problema?
Gracias por adelantado.

Me preguntaba sobre el ajuste por partes de la variable de tiempo. Tengo un conjunto de datos en el que los puntos de tiempo son 1:60 días y cada 2 o 3 días (por lo tanto, no 1, 2, 3, etc., sino 1, 3, 5, 8, etc.) y desigual entre sujetos. Intenté usar el segundo formato tal como lo presenta aquí, y luego ajusté el modelo, pero obtengo un error de rango deficiente en lmer y un error de singularidad en lme. ¿Tienes una idea de cómo solucionarlo?

Muchas gracias por esta guía. Realmente necesito su ayuda con un problema: necesito ajustar un modelo con datos de series de tiempo, como un modelo mixto. Tengo llegadas horarias de disfraces que ingresan a una empresa. Estoy tratando de ajustar un modelo mixto con FE como el día de la semana y la hora del día. Como ME, estoy tratando de estimar una matriz de covariables ar (1) durante un día (5 horas desde el tiempo de apertura hasta el cierre, por lo que la matriz es de 5x5) y una matriz de covariedades ar (1) para entre días (5 días a la semana, entonces Matriz 5x5), por lo que mis datos son:

fecha día hora CantCustomers
1/1/2014 1 10 125
1/1/2014 1 11 110
1/1/2014 1 12 180
1/1/2014 1 13 173
1/1/2014 1 14 68
2/1/2014 2 10 114
2/1/2014 2 11 92
.

Mi modelo en R es actualmente:
y & lt = lme (CantCustomer

1 | fecha, correlación = corAR (1), datos = datosh)

Cuando verifico la matriz R, es de 5x5. Pero la matriz D me dio solo 1 valor, de varianza. Entiendo que esta es una identidad sigma * de 5x5. La matriz es entonces el resultado de V = Z'DZ + R y también una matriz de 5x5.
¿Cómo puedo configurar la matriz R y D para que se ajuste a la matriz de covarianza horaria (intra) y diaria (entre) como un Ar (1)?

Muchas gracias, cualquier consejo puede ayudar.

Este es un contenido de blog tan bueno que nos muestra un gran aprendizaje. Es bueno que haya podido dar algunos términos de valores sobre el uso de modelos lineales jerárquicos para resolver problemas como este. Esto nos da un aprendizaje ideal.

¡Gracias por compartir esto! Definitivamente se convirtió en una de mis referencias imprescindibles para hacer modelos longitudinales en R. Solo tengo una pregunta rápida, quizás no relacionada: entonces, ¿cómo hacer un análisis de series de tiempo multinivel (N & gt1) en R? ¿Qué paquetes se pueden usar para eso?


ERRORES COMUNES AL REALIZAR UNA REVISIÓN DE LA CARTA RETROSPECTIVA

1. No crear preguntas de investigación bien definidas y claramente articuladas

El primer paso al planificar un RCR es formular una serie de preguntas de investigación que deben responderse en función de los resultados del estudio. Las preguntas de investigación deben ser lógicas, fluyendo de lo que se sabe o se cree que es verdadero a lo que se desconoce y requiere validación [5]. Las preguntas de investigación forman la estructura inicial del RCR y guían el diseño del estudio y el análisis de datos. Es importante dedicar el tiempo adecuado a redactar y revisar cuidadosamente las preguntas de investigación para el estudio.

No hay escasez de consejos publicados sobre el desarrollo y el perfeccionamiento de las preguntas de investigación. Hemos seleccionado un marco para el diseño y la articulación de preguntas de investigación para presentarlo aquí que nos ha resultado particularmente útil. Aunque no se menciona en ninguna otra parte de este manuscrito, recomendamos Morgan y Harmon [6] al lector como una referencia adicional para enmarcar adecuadamente las preguntas de investigación. El marco que se presenta aquí es una tipología de preguntas de investigación. Estas preguntas generalmente se clasifican en una de tres categorías: preguntas de descripción, preguntas de relación o preguntas de comparación.

Las preguntas de descripción son comunes a los RCR. Estas preguntas describen lo que está sucediendo o lo que existe [7]. La investigación de incidencia y prevalencia es descriptiva. Por ejemplo, podríamos formular la pregunta de investigación & # x0201c ¿Cuál es la tasa de incidencia de la influenza estacional entre la población anciana en Bélgica para el año 2009? & # X0201d La respuesta a esta pregunta podría expresarse en términos de porcentaje. Otros ejemplos pueden incluir preguntas que comparen características y resultados de pacientes con neumonía adquirida en la comunidad que fueron ingresados ​​en la Unidad de Cuidados Intensivos (UCI) con los pacientes tratados en la sala [8] o caracterizar los patrones de derivación del dolor en la articulación de la cadera [9]. Los resultados de las preguntas descriptivas a menudo se informan como proporciones, porcentajes, recuentos de frecuencia, medidas de tendencia central (media, mediana, moda), medidas de variabilidad (desviación estándar, rango) o varios cuadros, gráficos y tablas.

Las cuestiones de relación se refieren a cómo se relacionan los fenómenos entre sí [10]. Como ejemplo, podríamos plantear la pregunta: & # x0201c ¿Cuál es la relación entre el agotamiento ocupacional y la ideación suicida entre los residentes médicos en el noreste de Estados Unidos? & # X0201d población de interés y luego calcular un coeficiente de correlación para cuantificar esta relación. Otros ejemplos de este tipo podrían incluir examinar la relación entre los niveles de enfermedades infecciosas notificadas por la comunidad y la tasa de defectos del tubo neural [11] o evaluar la relación entre el uso de fármacos antipseudomonas y el desarrollo de una resistencia a Pseudomonas aeruginosa [12]. Las respuestas a este tipo de preguntas a menudo se proporcionan en forma de coeficiente de correlación. Existen muchos coeficientes de este tipo, y la elección adecuada del coeficiente viene dictada por la naturaleza de los datos, incluido el nivel de datos (nominal, ordinal, intervalo o relación) y la distribución subyacente.

Las preguntas de comparación se refieren a diferencias de grupo o subgrupo en una variable (o variables) de interés. Los grupos discutidos en la definición anterior representan niveles de la variable independiente, mientras que la variable examinada entre grupos se conoce como variable dependiente. Las preguntas de comparación se utilizan a menudo en ensayos clínicos aleatorios. En un ejemplo simple, un grupo de pacientes con un trastorno en particular se asigna aleatoriamente a un tratamiento o a un grupo de control. El grupo de tratamiento recibe la intervención mientras que el grupo de control no. Al final del ensayo, se comparan los dos grupos para evaluar la eficacia del tratamiento. Si bien las preguntas de comparación pueden buscar establecer relaciones de causa-efecto, no siempre es así. Podríamos plantear la pregunta de investigación: & # x0201c ¿Hay diferencias entre hombres y mujeres en la satisfacción con la vida después de una lesión de la médula espinal? & # X0201d En este ejemplo, la variable independiente no se puede asignar al azar ya que el género es una característica predeterminada. Sin embargo, esta pregunta todavía se presta a la comparación. Otros ejemplos podrían incluir comparar el efecto de la reanimación con líquidos con albúmina o solución salina sobre la mortalidad entre los pacientes de la UCI [13] o comparar cuatro dietas de pérdida de peso de baja a alta ingesta de carbohidratos para determinar los efectos sobre la pérdida de peso [14]. Este tipo de preguntas a menudo se responden comparando estadísticamente medidas de tendencia central entre grupos.

2. No considerar las cuestiones de muestreo a priori

Hay dos cuestiones principales que deben abordarse con respecto a las consideraciones de muestreo: el tamaño de la muestra y la estrategia de muestreo. Se puede utilizar un proceso matemático llamado análisis de potencia para ayudar a determinar la cantidad de gráficos necesarios para un estudio en particular. El poder se refiere a la probabilidad de que una prueba estadística rechace la hipótesis nula cuando la hipótesis alternativa es verdadera. Consideremos un ejemplo para ilustrar el poder con mayor claridad. En un ejemplo mencionado anteriormente, planteamos una pregunta de investigación relacionada con las diferencias de género en la satisfacción con la vida después de una lesión de la médula espinal. Siempre se afirma que la hipótesis nula no refleja ninguna diferencia. En este ejemplo, la hipótesis nula establecería que no se encontrarían diferencias entre hombres y mujeres en una medida de satisfacción con la vida. Por supuesto, los investigadores a menudo están interesados ​​en rechazar la hipótesis nula a favor de la alternativa (existen diferencias estadísticamente significativas entre hombres y mujeres en cuanto a satisfacción con la vida). Se requiere tener suficiente poder para detectar esta diferencia estadísticamente significativa entre géneros.

El poder está relacionado con el tamaño de la muestra. Los estudios con muestras más grandes tienen mayor poder. Para el investigador que realiza un RCR, se necesita una cantidad suficiente de registros de pacientes para obtener suficiente poder. Se pueden encontrar varios enfoques para realizar un análisis de poder en libros de texto de estadística y artículos de revistas. Un programa de software descargable gratuito llamado G * Power 3.0 es una alternativa popular y fácil de usar para realizar análisis de potencia. Faul y col. [15] discuten la utilidad de este programa con mayor detalle.

La segunda consideración del muestreo es la estrategia utilizada para obtener la muestra de registros de pacientes. Si bien hay muchos procedimientos de muestreo disponibles para el investigador, aquí mencionaremos 3 métodos. Quizás la estrategia más común utilizada en los RCR es la muestra de conveniencia. Con este método, los investigadores utilizan la información médica a su disposición. Si bien este método presenta limitaciones con respecto a la generalización de los resultados, es un método práctico, particularmente útil cuando se trata de casos más raros y tamaños de muestra más pequeños. El segundo tipo de método de muestreo, el muestreo aleatorio, es el estándar de oro de estas técnicas. Los elementos de la población se seleccionan al azar, lo que significa que cada registro médico tiene la misma oportunidad de ser seleccionado para codificación. La selección aleatoria tiene en cuenta el sesgo de muestreo y permite a los investigadores generalizar sus resultados a la población de la que se extrajo la muestra. Cabe señalar que para utilizar eficazmente el muestreo aleatorio, el investigador debe tener acceso a una cantidad sustancial de registros de pacientes. En los casos en que sea factible el muestreo aleatorio, recomendamos su uso. La tercera técnica de muestreo se conoce como muestreo sistemático. Mediante este procedimiento, el investigador selecciona cada k-ésimo registro médico para codificarlo. Si bien este método adopta un enfoque sistemático para el muestreo, no es verdaderamente aleatorio. Como antes, este método requiere acceso a una gran cantidad de registros de pacientes. En resumen, en los casos en que los investigadores tienen acceso a múltiples sitios o planean estudiar un trastorno o procedimiento médico común, el método preferido es el muestreo aleatorio. En los casos en que la información sea limitada, una muestra de conveniencia será más práctica.

3. No operacionalizar adecuadamente las variables en el estudio.

La operacionalización se refiere al acto de & # x0201ct traducir un constructo en su manifestación & # x0201d [16]. Este término se usa ampliamente en la investigación de las ciencias sociales. Refiriéndonos a nuestro ejemplo anterior de agotamiento, podríamos adherirnos a una definición de construcción comúnmente aplicada de agotamiento como multidimensional para incluir una sensación de despersonalización, reducción de logros personales y agotamiento emocional. Para operacionalizar estos aspectos del agotamiento, Maslach et al. [17] creó el Inventario de agotamiento de Maslach, que es la evaluación de agotamiento más utilizada en la literatura de investigación. Dirigiendo nuestra atención a los RCR, la operacionalización de las variables ocurre a través de dos pasos. El primer proceso que debe ocurrir a priori es identificar y definir las variables de estudio. En algunos casos, este proceso puede ser sencillo. La categorización de un valor de laboratorio en particular, por ejemplo, estará dentro o fuera de los rangos normales, y estos rangos son bien aceptados y bien comprendidos dentro de una comunidad de práctica. En otros casos, las cosas están menos claras. Por ejemplo, considere la variable dolor. El dolor es una experiencia sensorial que también tiene componentes afectivos. Katz y Melzack [18] y Melzack y Casey [19] discuten las dimensiones psicológicas sensorial-discriminativas, motivacionales-afectivas y cognitivoevaluativas del dolor. Además, considere la calidad del dolor. En algunos casos, los pacientes describen el dolor como punzantes, mientras que otros hablan de una sensación de ardor. Por tanto, es importante pensar en cómo debe operarse el dolor para un estudio en particular. El segundo paso, e igualmente importante, en la operacionalización de las variables de un estudio requiere una revisión de la literatura para descubrir cómo otros estudios de investigación han operacionalizado estas mismas variables en trabajos similares o relevantes. Con referencia al ejemplo del dolor, podríamos encontrar que los investigadores anteriores que estudiaron el dolor utilizaron escalas de calificación verbal o numérica, escalas analógicas visuales o el Cuestionario de dolor de McGill para operacionalizar esta variable. Al comprender cómo se ha hecho operativa una variable en estudios anteriores, es probable que los investigadores puedan adoptar un enfoque existente que sea adecuado para abordar una pregunta de investigación en particular. Una herramienta útil que se puede desarrollar e incluir en el manual de investigación es un apéndice o glosario de definiciones de las variables y estudios relevantes para respaldar el uso y las definiciones en el RCR [2]. Al completar estos pasos, los investigadores de RCR pueden aumentar significativamente la confiabilidad y validez de las variables bajo investigación [20].

4. No capacitar y monitorear a los extractores de datos

Los extractores de datos que revisan y codifican cada gráfico juegan un papel importante con respecto a la calidad de los datos. La codificación debe realizarse de forma precisa y coherente, o la validez de los datos puede verse comprometida. Antes de cualquier extracción de datos, los codificadores deben ser entrenados cuidadosamente. La capacitación debe incluir una revisión cuidadosa de las variables, el manual de procedimientos y el formulario de extracción de datos. Después de esta revisión, los extractores de datos deben codificar varios registros de pacientes para la práctica. El investigador debe verificar cuidadosamente estos elementos codificados para garantizar su precisión. Cualquier discrepancia en la codificación debe revisarse conjuntamente y discutirse para aclarar cualquier problema. Después del entrenamiento, será necesario un seguimiento continuo. Esto asegura que los extractores estén codificando los datos de manera precisa y oportuna. En las etapas iniciales de abstracción, podría ser ventajoso programar una reunión con los extractores de datos para discutir o aclarar cualquier problema que pueda haber ocurrido durante el proceso de codificación.

Además de la precisión, la coherencia y la puntualidad, los extractores de datos también deben seguir siendo objetivos. Se recomienda que los extractores permanezcan ciegos al propósito del estudio y las preguntas de investigación que el RCR está tratando de abordar. Como señalan acertadamente Gearing et al. [2], & # x0201c Los abstractores ciegos a la hipótesis reducen el sesgo del revisor, específicamente la posibilidad de que su evaluación se vea influida por el conocimiento de otros (p. Ej., Investigadores), la preocupación por afectar negativamente el resultado del estudio o interpretar su abstracción como demasiado indulgente o áspero. & # x0201d

5. No utilizar formularios de abstracción estandarizados

Al realizar un RCR, el formulario de abstracción ayudará a garantizar una medida de coherencia entre los extractores y, al mismo tiempo, ayudará a reducir los errores en la recopilación de datos. Los formularios de abstracción pueden ser en papel o electrónicos, los cuales tienen ventajas únicas. Las claves para cualquier tipo de forma de abstracción son tener una organización lógica similar en flujo al formato de los gráficos originales y simplicidad de pregunta / respuesta para las diversas variables operacionales involucradas en el estudio [2,20].

Los formularios en papel pueden ser rentables y fáciles de usar en varios sitios de codificación. Si el investigador opta por utilizar un formulario en papel, se deben proporcionar pautas específicas para el registro y la codificación de datos, o se proporciona un formulario de datos estructurado y preimpreso que no deja espacio para la interpretación del codificador de la recopilación de datos. Sin embargo, los formularios en papel demuestran una desventaja para la recopilación de datos cuando se consideran la escritura a mano del codificador, la transcripción de respuestas y el almacenamiento y mantenimiento de formularios [1, 2].

Los formularios electrónicos son ventajosos cuando se consideran factores de investigaciones de RCR a gran escala, centralización del almacenamiento de datos, reducción de errores de entrada y transcripción y reducción del número de pasos de entrada y evaluación de datos [2]. Además, los formularios electrónicos, generalmente creados a partir de un paquete de software de computadora como Microsoft Access, limitan la interpretación del codificador y pueden estar diseñados para permitir solo respuestas de código específicas para la variable [1, 2].

Independientemente del formato elegido para el formulario de abstracción, los codificadores deben recibir capacitación, explicaciones y revisiones de las respuestas de código esperadas para cada variable operacionalizada. Los métodos adicionales para reducir el error en la codificación incluyen proporcionar números exactos de espacios de caracteres para que el codificador ingrese la respuesta. Esto elimina una cantidad de error de la variabilidad en la interpretación y respuesta del codificador en cada paso del proceso de codificación [1]. Se debe utilizar una pequeña prueba piloto para garantizar que se puedan completar todos los elementos codificados del formulario de abstracción. En algunos casos, cabe señalar que deben combinarse categorías particulares debido a la poca frecuencia de presentación de informes. También se pueden encontrar errores u omisiones mediante el empleo de una prueba piloto informal durante esta fase. (Discutimos la necesidad de un estudio piloto más sustancial a continuación).

6. No crear un manual de procedimientos adecuado para la abstracción de datos.

Además del formulario de abstracción, se debe crear y compilar un manual de procedimientos de abstracción para los codificadores a fin de garantizar aún más la precisión, confiabilidad y coherencia para todos los revisores y codificadores. Este manual debe tener una explicación clara y detallada de los protocolos y pasos para la extracción de datos. Cuando sea posible, ilustraciones o imágenes de los elementos del formulario, los datos o las ubicaciones de las variables en el registro médico y la entrada de respuesta aceptable en el formulario de abstracción. Se debe incluir información adicional como abreviaturas de datos, interpretaciones, sinónimos y símbolos taquigráficos en el texto del manual cuando se discute el análisis de la variable y la entrada del formulario o se debe proporcionar como un glosario para referencia en el manual [20].

Con la mayor frecuencia posible, el investigador debe detallar la lógica del árbol de decisión / raíz para tantas situaciones de codificación potenciales como se pueda prever. Si se produce una decisión de codificación imprevista, el investigador puede optar por actualizar el manual de procedimiento para incluir el nuevo tallo de decisión de codificación para que todos los codificadores involucrados puedan seguir las mismas decisiones lógicas que puedan surgir. Esta recomendación es particularmente útil si hay varios codificadores o varios sitios involucrados en la investigación. La estandarización es clave para garantizar que los datos del estudio sean de buena calidad.

7. No desarrollar explícitamente criterios de inclusión y exclusión

Además de las instrucciones para la extracción de datos, el manual de procedimientos y el protocolo de investigación deben abordar la inclusión y exclusión de gráficos relacionados con el estudio. Generalmente, una vez que se ha desarrollado la pregunta de investigación y se han establecido los protocolos, incluida la operacionalización de las variables del estudio, la muestra de la historia clínica del paciente se puede identificar fácilmente. Sin embargo, una inspección minuciosa y una revisión cuidadosa de la literatura y la muestra de gráficos pueden permitir que se produzcan algunas exclusiones. Las sugerencias para los criterios de exclusión incluyen la falta suficiente de variables registradas en la tabla, la presencia de comorbilidades excesivas o de confusión y / o la presencia de factores de confusión que degradarían suficientemente la validez de los datos de la tabla. Por otro lado, una metodología de estudio más restrictiva puede requerir que se cumplan los criterios específicos descritos en los protocolos y el manual de abstracción antes de su inclusión en el RCR. En cualquiera de las metodologías, los protocolos deben ser claros, los extractores deben estar capacitados en los protocolos de inclusión y exclusión, y los extractores e investigadores deben revisar los gráficos excluidos para asegurar que los gráficos no sean incluidos o excluidos innecesariamente por uno o varios individuos.

8. No abordar la confiabilidad entre evaluadores o entre evaluadores

La confiabilidad intra e interevaluador es una estimación estadística calculada de que la codificación de los informes es coherente dentro o entre los evaluadores. La confiabilidad intra-evaluador evalúa las diferencias cuando el mismo abstractor recodifica el mismo conjunto de variables. La confiabilidad entre evaluadores mide específicamente la capacidad de dos o más extractores independientes para reproducir codificación idéntica. La confiabilidad entre evaluadores también se puede considerar como una medida de la cantidad de error entre los codificadores del conjunto de variables de datos [1].

La confiabilidad entre evaluadores debe calcularse y medirse utilizando Cohen & # x02019s kappa (& # x003ba), en lugar de calcular la tasa o el porcentaje de concordancia entre los codificadores. El uso de un cálculo del porcentaje de concordancia solo indicará la concordancia de los codificadores dentro de abstracciones similares o idénticas, mientras que & # x003ba evaluará el grado de concordancia entre / entre los codificadores en comparación con la concordancia total posible mientras se restringe la posibilidad de concordancia por azar [1 ]. El método más fácil para calcular & # x003ba es utilizar un sitio de Internet como la Calculadora Kappa en línea que se puede encontrar en http: //justus.randolph. nombre / kappa [21]. Cohen & # x02019s kappa devolverá un resultado dentro del rango de -1 que demuestra un desacuerdo perfecto a +1 que demuestra un acuerdo perfecto. El coeficiente de & # x003ba mínimo aceptable para RCR & # x02019s debe ser +0,6.

Las mediciones de confiabilidad intra-evaluador se comparan utilizando un cálculo de correlación intraclase (ICC). Para realizar un ICC, el abstractor selecciona y vuelve a codificar un número predeterminado y aleatorio de gráficos para codificar la evaluación y el cálculo. Los problemas de error con la confiabilidad intra-evaluador surgen porque las evaluaciones posteriores del codificador tienen la posibilidad de contaminación por el conocimiento de la codificación de datos anterior [1]. ICC se calcula utilizando paquetes de software estadístico SPSS disponible en IBM en www.ibm.com/software/analytics/spss [22], el software gratuito R disponible en http://www.r-project.org [23] y Microsoft Excel , todos los cuales tienen tutoriales en línea como los disponibles en http://www.uvm.edu/

dhowell / StatPages / More_ Stuff / icc / icc.html [24], http://aliquote.org/memos/2011/04/ 29 / computing-intraclass-correlation-with-r [25] y http: // www .real-statistics.com / confiabilidad / intraclass-correlation / [26], respectivamente.

9. No realizar una prueba piloto

Las pruebas piloto, a veces denominadas estudios piloto, son versiones a pequeña escala de una investigación de investigación que carecen de un tamaño de muestra para calcular completamente las estadísticas o responder a la pregunta de investigación, pero se realizan para evaluar el diseño del estudio, su viabilidad y evaluar la metodología y los procedimientos de la investigación. investigación. Además, las pruebas piloto ayudarán a determinar la viabilidad de la abstracción de datos, destacando la frecuencia con la que faltan las variables operacionalizadas en los registros de los pacientes, proporcionando información sobre los procedimientos y tasas de recuperación de gráficos de una institución, probando los criterios de inclusión y exclusión y evaluando el muestreo de datos potenciales. y preocupaciones de confiabilidad.

En general, se recomienda que las pruebas piloto comprendan aproximadamente el 10% de la muestra de investigación objetivo y se seleccionen mediante un proceso aleatorio. Estas recomendaciones ayudan a garantizar que los extractores hayan codificado una cantidad suficiente de registros médicos para sentirse cómodos con el proceso y evaluar la idoneidad de las variables y los esquemas de codificación. La aleatorización garantiza que los gráficos codificados sean representativos de la población de gráficos que es probable que el evaluador vea durante la fase de codificación.

10. No abordar las consideraciones éticas y de confidencialidad

La confidencialidad y la ética en la investigación médica es un campo muy serio y altamente regulado, tanto institucionalmente como a través del gobierno federal. La ética y la supervisión de toda la investigación en seres humanos ha sido codificada en el Título 45, Parte 46 del Código de Regulaciones Federales, específicamente 45CFR46.101 (2009). Para ayudar con la supervisión de la investigación, 45CFR establece y regula la formación de Juntas de Revisión Institucional (IRB), el alcance de la supervisión de la investigación de la IRB y bajo qué circunstancias la investigación está exenta de la aprobación y supervisión de la IRB. De acuerdo con 45CFR46.101 (b) (4) (2009):

Investigación que implique la recopilación o el estudio de datos, documentos, registros, muestras patológicas o muestras de diagnóstico existentes, si estas fuentes están disponibles públicamente o si el investigador registra la información de tal manera que los sujetos no puedan ser identificados, directamente o mediante identificadores. vinculado a los sujetos [27].

Este tipo de investigación descrita lógicamente incluye estudios de RCR, aunque es nuestra recomendación que la IRB apruebe o valide la exclusión de la supervisión de la RCR y sus protocolos, ya que cada IRB puede tener una visión e interpretación únicas de su alcance de supervisión.

La otra consideración que debe tenerse en cuenta en los protocolos de RCR es la responsabilidad legal y ética de adherirse a la ley federal con respecto a la información de salud del paciente. La Ley de Portabilidad y Responsabilidad de Seguros de Salud de 1996 (HIPAA) [28] entre sus muchas disposiciones es la más ampliamente reconocida por establecer estándares con respecto a la confidencialidad de la información médica personal (PMI) a través de la Regla de Privacidad. Según la Regla de privacidad de HIPAA, ubicada en el Título II, subtítulo de Simplificación administrativa de la Ley, todos los proveedores, planes y cámaras de compensación tienen prohibido usar o divulgar información médica protegida, excepto según lo autorice un paciente o cuando lo permita específicamente la regulación. La Regla también se aplica explícitamente a todas las formas de comunicación de información médica, incluidos los medios orales, escritos, electrónicos o cualquier otro medio [29]. No se puede exagerar la importancia de tener en cuenta estos dos códigos éticos y legales al desarrollar y realizar un RCR.


Perceptrón

Bien, conocemos los conceptos básicos, revisemos la red neuronal que crearemos. El que se explica aquí se llama Perceptron y es la primera red neuronal jamás creada. Consiste en 2 neuronas en la columna de entrada y 1 neurona en la columna de salida. Esta configuración permite crear un clasificador simple para distinguir 2 grupos. Para comprender mejor las posibilidades y las limitaciones, veamos un ejemplo rápido (que no tiene mucho interés excepto entender):

Supongamos que desea que su red neuronal pueda devolver resultados de acuerdo con las reglas del "inclusivo o".Recordatorio :

  • si A es verdadero y B es verdadero, entonces A o B es verdadero.
  • si A es verdadero y B es falso, entonces A o B es verdadero.
  • si A es falso y B es verdadero, entonces A o B es verdadero.
  • si A es falso y B es falso, entonces A o B es falso.

Si reemplaza los "verdaderos" por 1 y los "falsos" por 0 y coloca las 4 posibilidades como puntos con coordenadas en un plano, entonces se da cuenta de que los dos grupos finales "falso" y "verdadero" pueden estar separados por un linea sola. Esto es lo que puede hacer un perceptrón.

Por otro lado, si comprobamos el caso del "exclusivo o" (en el que el caso "verdadero o verdadero" (el punto (1,1)) es falso), entonces podemos ver que una línea simple no puede separar el dos grupos, y un perceptrón no puede lidiar con este problema.

Por lo tanto, el Perceptron no es una red neuronal muy eficiente, pero es simple de crear y aún puede ser útil como clasificador.


Introducción

Desafíos para una comprensión neurocientífica del juego

Jugar durante los primeros años de vida es una actividad omnipresente. Participar en el juego se asocia positivamente con el desarrollo de habilidades sociales, habilidades cognitivas, lenguaje y bienestar emocional (Lyytinen et al., 1999 Pellegrini et al., 2002 St George et al., 2016 Thibodeau et al., 2016 Fung y Cheng, 2017). Las conceptualizaciones actuales del juego en las ciencias del comportamiento lo ven en términos generales como un comportamiento voluntario, atractivo, no funcional y asociado con la expresión de afecto positivo (Burghardt, 2005 Lillard et al., 2013 Miller, 2017). El juego también se puede clasificar según el enfoque del juego, es decir, ¿con qué está jugando el individuo? Por ejemplo, juego fisico es jugar con el propio cuerpo y con otras personas, por ejemplo, trepar, deslizarse, perseguir (Power, 1999 Pellegrini et al., 2002 St George et al., 2016) sociodramático o el juego de aparentar Es jugar con un mundo imaginario, y el enfoque del juego es más que una entidad observable concreta (Lillard et al., 2013) juegos con reglas implica jugar con un conjunto de reglas que los participantes aceptan cumplir para participar en la experiencia de juego, por ejemplo, juegos de mesa o juegos en el patio de recreo como la etiqueta (Hassinger-Das et al., 2017) y juego de objetos implica jugar con objetos físicos (Power, 1999 Pellegrini y Gustafson, 2005). El juego con objetos se puede subdividir aún más, dependiendo de la actividad realizada con el objeto. Por ejemplo, los objetos pueden usarse en el juego relacional, donde se combinan o unen múltiples objetos, y en la simulación de objetos, donde el objeto se usa para representar otra cosa (Belsky y Most, 1981).

Estas diversas categorizaciones y definiciones muestran que el juego en los seres humanos es diverso, multifacético y definido por un conjunto de términos amplios que abarcan aspectos motivacionales, cognitivos, sociales y emocionales del comportamiento y la psicología. En consecuencia, un desafío para la investigación actual es converger en una definición común y un sistema de medición para el juego, ya sea examinado a nivel conductual, cognitivo o neurológico. Este es un desafío oportuno para abordar, ya que las técnicas avanzadas de imágenes cerebrales ahora permiten la captura simultánea de la actividad neuronal de las díadas de adultos y niños durante las interacciones sociales naturalistas, como el juego conjunto (Wass y Leong, 2016 Leong et al., 2017). Un aspecto fundamental de este desafío es el hecho de que es difícil ejercer el nivel de control experimental y precisión temporal necesarios para la investigación a nivel neurológico, al tiempo que se conserva la calidad diversa de forma libre que muchos consideran una característica definitoria del juego.

Desarrollo del comportamiento de juego humano

El comportamiento de juego cambia sustancialmente a lo largo de la vida (Power, 1999). Estos cambios en el comportamiento de juego ocurren según el nivel de desarrollo de uno y # x2019s (por ejemplo, la progresión del juego solitario al juego cooperativo) y las interacciones con otros en un esfuerzo por lograr las metas de desarrollo. Durante la infancia, las madres participan en juegos individuales con su bebé para modelar y promover las habilidades necesarias para el desarrollo de su hijo, como las habilidades de comunicación y lenguaje, aumentar sus capacidades cognitivas, fomentar el desarrollo autónomo y otras habilidades importantes que se requieren. para la interacción social y el bienestar (por ejemplo, Valentino et al., 2011 Bernier et al., 2016). Por ejemplo, Mermelshtine y Barnes (2016) encontraron que la capacidad de respuesta de la madre hacia su bebé durante el juego a los 10 meses de edad predijo positivamente capacidades y habilidades cognitivas más altas (por ejemplo, resolución de problemas, conocimiento y memoria) a los 18 meses. Este efecto se mantuvo después de tener en cuenta la educación materna, la adversidad en el hogar y el juego infantil avanzado con objetos. Si bien la interacción diádica, por ejemplo, madre-bebé & # x2013 está presente durante todo el primer año de vida, no es hasta aproximadamente el final del primer año que la capacidad del bebé para participar en la interacción triádica (es decir, madre-bebé-objeto) se consolida (Bakeman y Adamson, 1984 de Barbaro et al., 2013a). Esta progresión a la interacción triádica, centrada en torno a un objeto, se considera importante para muchos aspectos del desarrollo psicológico, incluida la conciencia simbólica y el lenguaje (Tomasello, 1999 De Schuymer et al., 2011). Como señala Rodr & # x00EDguez (2009), los objetos son símbolos de sus usos dentro de una cultura (una taza, por ejemplo, puede representar la bebida), y la comprensión de estas relaciones objeto-uso representa la adquisición temprana de normas culturales y la adopción de un sistema simbólico fundamental. Los adultos y los bebés se comunican sobre objetos y con objetos. Además, existe un cruce sustancial entre la literatura sobre el juego de objetos y la exploración de objetos en la infancia, y la exploración se considera una parte fundamental del juego de la primera infancia (Belsky y Most, 1981). La evidencia sugiere que la exploración de objetos en la infancia juega un papel en el desarrollo de la resolución de problemas y la atención (Caruso, 1993 Poon et al., 2012 Clearfield et al., 2014) y se observan diferencias individuales entre niños de diferentes orígenes socioeconómicos (Clearfield et al., 2014). En consecuencia, se consideró que enfocar nuestro modelo alrededor de un objeto físico era el mejor enfoque para estudiar la actividad conductual y neuronal durante el juego entre padres e infantes.

Además de utilizar el juego con objetos en el enfoque actual, el contexto del juego madre-bebé es igualmente importante para el estudio actual. La importancia de las interacciones madre-hijo en el desarrollo temprano está bien documentada (por ejemplo, Belsky y de Haan, 2011 Bernier et al., 2016 Mermelshtine y Barnes, 2016). Sin embargo, las interacciones medidas a menudo están relacionadas con los procesos de crianza (por ejemplo, apoyo / afecto de los padres, sensibilidad, comunicación, capacidad de respuesta) que ocurren en un contexto de juego y no incluyen la codificación cuantitativa de las interacciones reales del juego. Si bien estos estudios brindan información sobre cómo los procesos de crianza materno influyen en el desarrollo temprano, no pueden explicar el papel específico del juego madre-hijo. Por lo tanto, es un próximo paso importante examinar si y cómo el juego de la madre y el bebé afecta el desarrollo temprano, particularmente el desarrollo neuronal. Para lograr este objetivo, se debe desarrollar un esquema de codificación de juegos que sea compatible en resolución de tiempo con el de las medidas de imágenes cerebrales.

Información sobre la neurociencia del juego a partir de modelos animales

Debido a los desafíos del control experimental (p. Ej., La estandarización de los participantes y el comportamiento y el entorno), los estudios de neurociencia sobre el juego se han centrado principalmente en modelos animales (en particular ratas) y en el comportamiento de juego social brusco (ver reseñas de Pellis y Pellis, 2009 Cooke y Shukla, 2011 Siviy y Panksepp, 2011 Vanderschuren et al., 2016). Los modelos de roedores han demostrado ser particularmente útiles porque las ratas muestran formas predecibles y estereotipadas de comportamiento relacionado con el juego (por ejemplo, un animal & # x2018pins & # x2019 el otro en su espalda, emisión de vocalizaciones ultrasónicas, etc.) que son fácilmente cuantificables y tratables. a la manipulación experimental y farmacológica. En consecuencia, ahora existe una literatura relativamente rica sobre los sustratos neuroanatómicos y neuroquímicos del comportamiento de juego brusco en ratas, utilizando métodos (invasivos) como lesiones cerebrales, administración intracraneal de compuestos neuroactivos y ensayos de expresión génica. A saber, los circuitos neuronales clave que ahora se sabe que funcionan en conjunto para apoyar a las ratas y el comportamiento de lucha de juego son: (1) a circuito ejecutivo cortical (en particular, la corteza prefrontal (PFC) y la corteza orbitofrontal (OFC)) que media el ajuste fino del desarrollo y la complejidad del juego, como la capacidad de coordinarse o modificar los movimientos en respuesta al estatus social de un compañero de juego (Moore, 1985 Pellis et al., 1999 Pellis et al., 2006 Bell et al., 2009 Siviy y Panksepp, 2011) (2) a circuito límbico subcortical (amígdala, hipotálamo y cuerpo estriado) que modera la motivación y la respuesta afectiva al juego (Meaney et al., 1981 Wolterink et al., 2001 Daenen et al., 2002 Burgdorf et al., 2007), potencialmente vía dopaminérgico y opioide. vías (Vanderschuren et al., 2016) y (3) circuitos somatosensoriales (corteza somatosensorial, tálamo, cerebelo) que controlan los patrones de juego motor y el rendimiento (Siviy y Panksepp, 1985, 1987a, b Panksepp et al., 1994 Byers y Walker, 1995).

Los estudios en animales han demostrado además que el juego induce plasticidad neuronal en áreas del cerebro involucradas en el procesamiento sensoriomotor (p. Ej., Corteza parietal, colículos y cuerpo estriado, Gordon et al., 2002), y también en la corteza prefrontal medial (mPFC, Cheng et al., 2008), un área que envía fuertes entradas moduladoras a los circuitos límbicos que controlan el comportamiento social. En los seres humanos, el mPFC inhibe la agresión y monitorea el comportamiento de aproximación / evitación (Bufkin y Luttrell, 2005 Hall et al., 2010). Por lo tanto, una mayor plasticidad en el mPFC después del juego podría indicar que el juego ayuda a mejorar el control de las redes de comportamiento social. El juego brusco en ratas también parece promover el desarrollo cerebral al aumentar la expresión del factor neurotrófico derivado del cerebro (BDNF) en la amígdala y la corteza prefrontal (Gordon et al., 2003), y la del factor de crecimiento similar a la insulina. 1 (IGF-1) en las cortezas frontal y posterior (Burgdorf et al., 2010). En consecuencia, se ha sugerido que la plasticidad neuronal inducida por el juego podría apoyar la aparición de comportamientos similares a los de los adultos (Cooke y Shukla, 2011). Aunque se debe tener precaución al extrapolar los hallazgos del trabajo con animales a los humanos, los datos actuales sugieren que, en todas las especies, el juego puede ser un proceso neuroconductual fundamental que está respaldado por (y produce cambios en) los principales circuitos neuronales corticales y subcorticales que apoyan la cognición. emoción y función sensoriomotora. Sin embargo, los métodos neurocientíficos que se han utilizado con éxito con modelos animales son demasiado invasivos para llevarlos a cabo en seres humanos. Además, incluso cuando se compara ostensiblemente el juego & # x201Cmotor & # x201D, el comportamiento de juego humano es mucho más complejo y menos estereotipado que el comportamiento de lucha de juego de los animales, como se describió anteriormente. En consecuencia, la investigación de la neurociencia en el juego en humanos tiende a evaluar el cambio neurológico utilizando un diseño previo a la prueba, posterior a la prueba (Newman et al., 2016), o a estudiar la actividad neuronal mientras el participante observa, pero no participa en el juego. comportamiento (Smith et al., 2013). Ir más allá de estas limitaciones empíricas para identificar los mecanismos neuronales que subyacen en el comportamiento de juego complejo y en curso en los seres humanos presenta un desafío considerable. Para abordar este desafío, la neuroimagen humana no invasiva (por ejemplo, EEG, fMRI) y los enfoques de codificación del comportamiento psicológico podrían combinarse en un análisis multimodal que puede producir avances en la comprensión de los mecanismos neurocognitivos humanos del juego. Sin embargo, actualmente no existe un marco metodológico que sea adecuado para realizar un análisis multimodal del juego que abarque el cerebro, la cognición y el comportamiento.

Limitaciones de las medidas actuales de juego para análisis neuronales

Para combinar los análisis neuronales y conductuales del juego, la conducta de interés debe identificarse con una resolución temporal precisa. Además, la codificación del comportamiento debería poder identificar el cambio entre varios estados de juego y no juego, para facilitar el análisis intra e interindividual de los cambios correspondientes en la actividad neuronal. Sin embargo, los esquemas de codificación de juego existentes se basan predominantemente en clasificaciones globales, listas de verificación o recuentos de frecuencia de los comportamientos de juego, por lo que no capturan información temporal sobre cuando se producen comportamientos de juego específicos o información sobre comportamientos ajenos al juego. Ejemplos de esquemas de calificación global incluyen Poon et al. (2012) que calificaron las sesiones de juego entre padres e hijos en una escala de 1 & # x2013 5 para la atención conjunta, la imitación y el juego con objetos, y St George et al. (2016) que le dio a cada padre una puntuación global en 10 dimensiones diferentes, incluida la sensibilidad (qué tan receptivo fue el padre a las señales del niño y las señales), consideración positiva (demostraciones de amor y afecto) y estimulación del desarrollo cognitivo (enseñanza). Los enfoques de la lista de verificación incluyen la Prueba del juego simbólico (Lowe y Costello, 1976), que captura los comportamientos que los niños muestran cuando juegan con un conjunto específico de juguetes, como & # x2018feeds doll & # x2019 y & # x2018mueve un camión o un remolque. & # x2019 Un enfoque similar de lista de verificación se encuentra en muchas medidas de juego hechas a medida, como la utilizada por Pellegrini (1992), donde se observaba a los niños en el patio de recreo y se registraban los comportamientos mostrados, incluyendo Interacción entre pares y juego de objetos. En un análisis del juego infantil, Belsky y Most (1981) aplicaron un enfoque de lista de verificación a los datos muestreados en el tiempo, utilizando una lista de verificación para registrar el nivel de juego & # x2018más competente & # x2019 observado en cada período de 10 s. Los autores reconocen que este enfoque oculta la información sobre la frecuencia de los comportamientos de juego, ya que cualquier comportamiento de juego de & # x2018bajo nivel & # x2019 que ocurra en el mismo período de 10 s no puede ser capturado por el esquema de codificación. Pero la información sobre los comportamientos de & # x2018high level & # x2019 también está oculta, incluida su sincronización y frecuencia precisas dentro de cada período de 10 s. Desde una perspectiva de la neurociencia, saber que un tipo de juego ocurrió en algún punto dentro de una ventana de 10 s no proporciona suficiente precisión temporal para que se lleven a cabo análisis de eventos bloqueados.

Algunos estudios han capturado información temporal más precisa en el contexto del juego madre / padre y # x2013 infantil (p. Ej., Courage et al., 2010 James et al., 2012 Zuccarini et al., 2017). Sin embargo, ningún esquema de codificación específico del juego que conozcamos mide el comportamiento de juego entre el padre y el bebé en una resolución de tiempo que sea lo suficientemente precisa (es decir, decenas de milisegundos) para ser compatible con los análisis neuronales (p. Ej., EEG). Además, estos esquemas existentes no están diseñados para capturar y analizar la evolución temporal de una gama de estados de comportamiento como un continuo fluido. Por ejemplo, Zuccarini et al. (2017) codificó & # x2018 exploración de objetos motores & # x2019 en el juego infantil, donde el bebé exploraba un objeto con las manos o la boca, y Koterba et al. (2014) codificaron el mirar y la boca del bebé durante el juego con un sonajero. Si bien tales esquemas reflejan nuestro énfasis en la codificación continua y fina de la conducta de juego, lo hacen codificando una o dos acciones específicas y luego analizando cómo la duración o frecuencia de esas acciones varían entre los bebés. Nuestro esquema de codificación, por el contrario, está diseñado para rastrear el comportamiento en continua evolución de los participantes a medida que se mueven a través del juego, la enseñanza / aprendizaje, la atención conjunta y otros estados similares, y facilita el análisis dentro y entre los participantes. Un sistema de codificación multimodal para el juego materno-infantil, adecuado para analizar patrones concurrentes en datos conductuales y neurológicos en tiempo real, requiere la flexibilidad para capturar una amplia variedad de estados conductuales, combinados con un grado muy alto de precisión temporal, y tal no existe una combinación en los esquemas de codificación de juego establecidos.

En segundo lugar (como lo indican los estudios con animales), el juego es una actividad social interactiva muy compleja que activa una combinación de circuitos neuronales sensoriomotores, cognitivos y socioemocionales, cada uno de los cuales puede soportar dimensiones de comportamiento separables. Es importante destacar que ninguna dimensión del comportamiento por sí sola es suficiente para definir el juego, ya que el comportamiento en cada dimensión puede ocurrir tanto en situaciones lúdicas como no lúdicas. Más bien, es la co-ocurrencia de la actividad en múltiples dimensiones lo que define un episodio lúdico. Aquí, contribuimos a la formación de una comprensión neurocientífica del juego presentando un modelo y un marco metodológico que captura el comportamiento en una alta resolución temporal y como un estado multidimensional en continua evolución, en lugar de como un conjunto de acciones discretas o como una estructura global. resumen de tipo o calidad. De esta manera, la codificación del comportamiento se adapta bien a la alta resolución temporal de los datos de EEG, maximizando la agudeza con la que se puede explorar la correlación del comportamiento cerebral.

Descripción general y consideraciones del marco metodológico de codificación de juegos

Como se describió en la sección anterior, la investigación neurocientífica actual sugiere que el comportamiento del juego está respaldado por tres circuitos neuronales principales que controlan la motivación y el afecto (es decir, estructuras límbicas), el rendimiento motor (es decir, estructuras somatosensoriales) y la función ejecutiva de orden superior (es decir, estructuras límbicas). , estructuras corticales frontales) respectivamente. A partir de esto, el marco de codificación propuesto captura el comportamiento de juego orientado a objetos a lo largo de tres dimensiones correspondientes: socioemocional (SE), sensoriomotor (SM) y cognitivo (C). El comportamiento de los bebés & # x2019 o de los adultos & # x2019 se codifica de acuerdo con la presencia o ausencia [1/0] de actividad congruente con el juego en cada dimensión. La intención del esquema de codificación es capturar de manera confiable formas comunes de comportamiento lúdico mientras se conserva la claridad de la codificación para cada dimensión (fundamentando el esquema en comportamientos claros y observables). Teniendo esto en cuenta, la actividad congruente con el juego se definió para cada dimensión de la siguiente manera:

La actividad congruente con el juego en la dimensión SE ocurre cuando hay una exhibición de afecto positivo o neutral, consistente con la idea de que el juego conduce a un sentido interno de recompensa (Burghardt, 2005 Miller, 2017). La actividad congruente con el juego en la dimensión SM ocurre cuando la pareja (madre o bebé) manipula y / o toca voluntariamente el objeto de manera exploratoria. Este criterio refleja el lugar central del comportamiento voluntario autodirigido en las definiciones de juego (Burghardt, 2005 Lillard et al., 2013 Miller, 2017 Sawyer, 2017). Finalmente, la dimensión C captura la presencia de compromiso atencional, así como el nivel de complejidad de este compromiso cognitivo. Por lo tanto, nuestro análisis tiene como objetivo explorar & # x2018minds-on & # x2019 play, en lugar de & # x2018minds-off & # x2019 play. Por & # x2018minds-on play, & # x2019 nos referimos al juego en el que la cognición y la atención se involucran mediante, por ejemplo, la observación del comportamiento del objeto / compañero, la exploración del objeto o la comunicación.& # x2018 El juego sin la mente, & # x2019, por el contrario, se refiere al comportamiento de juego en el que la cognición y la atención se desvinculan del objeto de juego y el compañero, y el objetivo del juego es de naturaleza más sensorial, por ejemplo, masticar un juguete o golpearlo en el mesa mientras mira a otra parte. Según nuestro marco, una juego-congruente El estado es aquel en el que el bebé (o el adulto) exhibe al mismo tiempo una actividad congruente con el juego en las 3 dimensiones (es decir, [1 1 1]).

Una característica importante de este marco es que no asume ninguna definición de juego. En cambio, hemos basado el marco en comportamientos específicos observables que se consideran factores importantes en diferentes conceptualizaciones del juego, a saber, la exhibición de afecto y el compromiso físico y cognitivo voluntario con el objeto del juego (Lillard et al., 2013 Miller, 2017). Al analizar los patrones de co-ocurrencia de estos comportamientos básicos, nuestro marco se puede utilizar para evaluar similitudes y agrupaciones potenciales de diferentes estados sociales relacionados con el juego (y, eventualmente, sus sustratos neuronales), que en el futuro pueden conducir a una definición de juego. comportamiento que se basa en la neurociencia. Otro punto fuerte del marco propuesto es que reduce la carga del juicio subjetivo sobre si se está produciendo o no una actividad lúdica. Más bien, las conductas objetivas y observables están codificadas (por ejemplo, tocar un juguete, mirar un juguete, sonreír, etc.) y la presencia o ausencia de juego (y otros estados sociales relacionados) se infiere a partir de patrones de conducta que concurren temporalmente. Basar la codificación en comportamientos observables específicos tiende a resultar en niveles más altos de acuerdo entre evaluadores (Bakeman y Gottman, 1997).

Objetivos y predicciones

El objetivo del estudio actual es desarrollar un nuevo marco metodológico para codificar el comportamiento lúdico de bebés & # x2019 y adultos & # x2019 que sea compatible, en el futuro, con el análisis de EEG. Como se mencionó anteriormente, la investigación actual sobre las interacciones madre-bebé y el desarrollo infantil a menudo mide los procesos de crianza que ocurren dentro de un contexto de juego en lugar del juego en sí, y los esquemas actuales de codificación del juego madre-bebé generalmente carecen de la precisión temporal para integrarse con medidas neuronales. . Por lo tanto, ilustramos la aplicación de nuestro marco de codificación de juego dimensional propuesto usando ejemplos de dos cuerpos diádicos contrastantes de interacciones orientadas a objetos madre e infante durante condiciones experimentales que no eran propicias (Condición 1) o propicias (Condición 2) para provocar juegos lúdicos. comportamiento. En la Condición 1, se desalentó el comportamiento lúdico pidiendo a las madres que se concentraran en enseñar a los bebés sobre el valor social (deseable o no deseable) de los objetos. En la Condición 2, se fomentó el comportamiento lúdico pidiendo a las madres que usaran los objetos en interacciones espontáneas, divertidas y naturales con su hijo. Estos cuerpos comprenden mediciones tanto conductuales como de electroencefalografía (EEG) que se obtuvieron simultáneamente de las madres y sus bebés. Sin embargo, para este estudio, nos enfocamos en análisis de comportamiento. Se pretende que la codificación de la conducta de juego en el marco metodológico propuesto se asimile fácilmente con, e informe, el análisis futuro de los datos neuronales que también se recopilaron durante el juego entre adultos y bebés. Tenemos dos conjuntos específicos de predicciones con respecto a las diferencias de comportamiento entre las condiciones que deberían surgir después de la aplicación del marco de codificación:

(1) En la Condición 2 (propicia), el estado modal de los bebés & # x2019 será [1 1 1] (es decir, el juego congruente en las tres dimensiones), pero en la Condición 1 (no propicia), [1 1 1] no ser el estado modal

(2) En la condición 2 en relación con la condición 1, los bebés mostrarán:

(a) Disminución del afecto negativo

(b) Mayor compromiso sensoriomotor

(c) Compromiso cognitivo (atencional) equivalente

La primera predicción se refiere a la sensibilidad del marco de codificación para detectar comportamientos relacionados con el juego. En pocas palabras, si las madres recibieron instrucciones de jugar con sus bebés, entonces (aunque los codificadores no emiten juicios directos sobre si los participantes estaban jugando o no) esperamos que el marco de codificación revele que un estado de congruencia con el juego es de hecho el estado social más frecuente. que mostraban los bebés. El segundo conjunto de predicciones se refiere a la utilidad del marco en la identificación de diferencias en la calidad de la interacción social y la sincronicidad temporal con la díada.


Temas y códigos

& lsquoThemes & rsquo son características de los relatos de los participantes que caracterizan percepciones y / o experiencias particulares que el investigador considera relevantes para la pregunta de investigación.

& lsquoCoding & rsquo es el proceso de identificar temas en las cuentas y adjuntar etiquetas (códigos) para indexarlos.

Los investigadores generalmente elegirán definir características como temas en los que se repiten varias veces en el conjunto de datos, dentro y / o entre transcripciones. Sin embargo, esta no es una regla estricta. Si un solo comentario hecho por un participante es particularmente útil para dilucidar su relato, es posible que desee diseñar un tema que lo resuma e incluirlo en su plantilla.

Es importante reconocer que los temas de la investigación cualitativa no se esconden en los datos, esperando ser "descubiertos" por el investigador. Más bien, surgen del compromiso de un investigador en particular con el texto, cuando intenta abordar una pregunta de investigación en particular. Como tales, son herramientas pragmáticas para ayudar al investigador a producir su relato de los datos. Al decidir si definir los temas y cómo, tenga en cuenta esta intención pragmática, hágase la pregunta: "Si codifico el texto de esta manera, ¿es probable que me ayude a mejorar mi comprensión de los datos?"

Para una discusión de las cuestiones filosóficas con respecto a la relación entre el texto, el análisis y la experiencia del participante y rsquos, visite la sección ¿Qué es el análisis de plantillas? sección.

Para una discusión sobre cómo juzgar la calidad de la codificación temática, visite la sección de controles de calidad y reflexividad.