Información

¿Existe una variación medible en la velocidad y fidelidad de la transmisión neuronal?

¿Existe una variación medible en la velocidad y fidelidad de la transmisión neuronal?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Mi comprensión de cómo las neuronas transmiten señales es bastante básica: las dendritas reciben señales (tanto excitadoras como inhibidoras) y las transmiten al cuerpo celular donde, si se acumula una despolarización suficiente, el axón dispara un potencial de acción y envía la señal. Todo este proceso se lleva a cabo mediante varios canales iónicos, especialmente los activados por voltaje. Mi pregunta es la siguiente: ¿sabemos qué tan sensibles son la velocidad y la confiabilidad del proceso a las variaciones genéticas que controlan cómo se construyen estos canales iónicos? ¿Es lo suficientemente robusto como para permitir pequeñas variaciones o cualquier cambio es catastrófico? Si permite pequeñas variaciones, ¿sabemos qué tan variable es la población humana para características como la fidelidad de la señal (baja tasa de falla para disparar cuando la neurona debería y baja tasa de activación en ausencia de estímulo) y velocidad de transmisión?

Teniendo en cuenta la dificultad de estudiar a los humanos, ¿se conoce este tipo de información para ratones, ratas, primates, etc.?


Falta de redundancia entre las medidas electrofisiológicas de la comunicación neuronal de largo alcance.

La comunicación entre áreas del cerebro se ha visto implicada en una amplia gama de funciones cognitivas y emocionales y está alterada en numerosos trastornos mentales. En modelos de roedores, se han utilizado varias métricas para cuantificar la comunicación neuronal interregional. Sin embargo, en estudios individuales, por lo general, solo se informan muy pocas medidas de acoplamiento y, por lo tanto, se asume implícitamente la redundancia entre dichos indicadores.

Resultados

Para probar esta suposición, aquí evaluamos comparativamente una amplia gama de métricas direccionales y no direccionales como coherencia, índice de retardo de fase ponderado (wPLI), valor de bloqueo de fase (PLV), consistencia de fase por pares (PPC), paramétrico y no direccional. -causalidad de Granger paramétrica (GC), coherencia parcial dirigida (PDC), función de transferencia dirigida (DTF), acoplamiento de fase de pico (SPC), acoplamiento de amplitud de fase transregional, correlaciones cruzadas de amplitud y otros. Aplicamos estos análisis a grabaciones de campo simultáneas de la corteza prefrontal y el hipocampo ventral y dorsal en los casos relacionados con la esquizofrenia. Gria1-modelo de ratón knockout que muestra un fenotipo robusto de hiperconectividad inducida por la novedad. Usando la detectabilidad de los déficits de acoplamiento en Gria1 −/− ratones y correlaciones bivariadas dentro de los animales como criterios, encontramos que a través de tales medidas, hay una falta considerable de redundancia funcional. Excepto por tres correlaciones por pares (PLV con PPC, PDC con DTF y paramétrica con causalidad de Granger no paramétrica), casi ninguna de las métricas analizadas covarió consistentemente con ninguna de las otras medidas en las tres conexiones y dos genotipos analizados. Las excepciones notables a esto fueron la correlación de coherencia con PPC y PLV que se encontró en la mayoría de los casos, y la correspondencia parcial entre estas tres medidas y la causalidad de Granger. Quizás lo más sorprendente es que la coherencia dirigida parcial y la causalidad de Granger, a veces consideradas como medidas equivalentes de influencia dirigida, divergieron profundamente. Además, la correlación cruzada de amplitud, el acoplamiento de fase de pico y el acoplamiento de amplitud de fase theta-gamma arrojaron resultados distintos en comparación con todas las demás métricas.

Conclusiones

Nuestro análisis destaca la dificultad de cuantificar los correlatos reales de la transferencia de información interregional, subraya la necesidad de evaluar múltiples medidas de acoplamiento y proporciona algunas pautas sobre qué métricas elegir para una caracterización completa, pero no redundante, de la conectividad funcional.


Estudio sobre la eficiencia de propagación y la fidelidad de la señal de subumbral en una red neuronal híbrida feed-forward bajo radiación electromagnética

El modelo neuronal híbrido proporciona un modelo de comportamiento neuronal basado en biofísica y eficaz desde el punto de vista informático, que mantiene su simplicidad al incorporar las características dinámicas de los canales iónicos en dos canales iónicos rápidos. En vista del tema de la propagación de la señal en una red multicapa compuesta por neuronas híbridas aún no está claro y el papel de la red neuronal se utiliza principalmente para generar conciencia biológica y ayudar a las criaturas a pensar y actuar, es necesario explorar la red neuronal con una función más perfecta. y mejor eficiencia de transmisión. Considerando una red neuronal de retroalimentación (FFN) que se compone de neuronas híbridas en presencia de radiación electromagnética, los efectos del ruido blanco gaussiano, la fuerza del peso sináptico y la probabilidad de conexión entre capas en la corriente postsináptica excitadora subumbral (EPSC) se investiga la propagación. Para aclarar el mecanismo de transmisión de la señal con mayor claridad, se exploran el diagrama de trama de puntos del pico y el correspondiente histograma de tiempo posterior al pico de cada capa. En particular, la eficiencia de propagación y la fidelidad de la señal EPSC subumbral en el FFN se investigan calculando la norma de potencia y la precisión de sincronización de picos. Nuestros resultados indican que tanto la norma de potencia como la precisión de sincronización de picos fluctúan con el aumento en la probabilidad de conexión entre capas, y el modo de descarga por ráfagas de múltiples períodos se puede detectar tanto en las capas de transmisión como en la capa de salida. Además, existe una intensidad de ruido óptima para garantizar la mejor codificación temporal y la máxima eficiencia de transmisión de la señal EPSC subumbral. Además, la intensidad de ruido óptima hace que la fidelidad del FFN sea la más alta, lo que asegura que se pueda distinguir la señal débil y la excitación causada por el ruido. Las conclusiones obtenidas en este trabajo tienen valor potencial para discutir el mecanismo de codificación, decodificación y propagación de información en redes neuronales reales.

Esta es una vista previa del contenido de la suscripción, acceda a través de su institución.


Métodos

Métodos en línea

Capacitación del clasificador general de CancerCellNet

Descargamos la matriz de recuento de expresión de ARN-seq de tumores de 8991 pacientes, generada por la red de investigación TCGA [20]: https://www.cancer.gov/tcga y su tabla de muestra correspondiente en 22 tipos de tumores diferentes utilizando TCGAWorkflowData, TCGAbiolinks [21], y paquetes SummarizedExperiment [22]. Usamos todas las muestras de tumores de pacientes para entrenar al clasificador CCN general. Limitamos el entrenamiento y el análisis de los datos de RNA-seq a los 13142 genes en común entre el conjunto de datos TCGA y todas las muestras de consulta (CCL, PDX, GEMM y tumoroides). Para entrenar el clasificador de bosque aleatorio de pares superiores, usamos un método similar a nuestro método anterior [23]. CCN primero normalizó la matriz de recuentos de entrenamiento reduciendo el muestreo de los recuentos a 500.000 recuentos por muestra. Para reducir significativamente el tiempo de ejecución y la memoria de generar pares de genes para todos los genes posibles, CCN luego seleccionó norte genes regulados positivamente, norte genes regulados negativamente, y norte genes menos expresados ​​diferencialmente (parámetro de entrenamiento CCN nTopGenes = norte) para cada una de las 22 categorías de cáncer utilizando plantillas de emparejamiento [24] como genes para generar pares de genes de máxima puntuación. En resumen, para cada tipo de tumor, CCN definió un vector de plantilla que etiquetó las muestras de tumor de entrenamiento en el tipo de cáncer de interés como 1 y todas las demás muestras de tumor como 0. CCN luego calculó el coeficiente de correlación de Pearson entre el vector de plantilla y las expresiones de genes para todos los genes. . Los genes con una fuerte coincidencia con la plantilla, ya sea regulados positivamente o regulados negativamente, tenían un gran coeficiente de correlación de Pearson absoluto. CCN eligió los genes regulados al alza, regulados negativamente y menos expresados ​​diferencialmente en función de la magnitud del coeficiente de correlación de Pearson.

Después de que CCN seleccionó los genes para cada tipo de cáncer, CCN generó pares de genes entre esos genes. La transformación de pares de genes fue un método inspirado en el clasificador de pares de mayor puntuación [25] para permitir la compatibilidad del clasificador con perfiles de expresión de consulta que se recopilaron a través de diferentes plataformas (por ejemplo, datos de consulta de microarrays aplicados a datos de entrenamiento de RNA-seq). En resumen, la transformación del par de genes compara 2 genes dentro de una muestra de expresión y codifica el par de genes “gene1_gene2” como 1 si el primer gen tiene una expresión más alta que el segundo gen. De lo contrario, la transformación del par de genes codificaría el par de genes como 0. Usando todas las combinaciones de pares de genes generadas a través de los conjuntos de genes por tipo de cáncer, CCN luego seleccionó top metro pares de genes discriminativos (parámetro de entrenamiento CCN nTopGenePairs = metro) para cada categoría utilizando la coincidencia de plantillas (con un gran coeficiente de correlación absoluto de Pearson) descrita anteriormente. Para evitar que un solo gen dominara la lista de pares de genes, permitimos que cada gen apareciera un máximo de tres veces entre los pares de genes seleccionados como características por tipo de cáncer.

Después de que se seleccionaron los pares de genes discriminativos superiores para cada categoría de cáncer, CCN agrupó todos los pares de genes y el par de genes transformó las muestras de entrenamiento en una matriz binaria con todos los pares de genes discriminativos como nombres de fila y todas las muestras de entrenamiento como nombres de columna. Usando la matriz de pares de genes binarios, CCN barajó aleatoriamente los valores binarios en filas y luego en columnas para generar perfiles aleatorios que no deberían parecerse a los datos de entrenamiento de ninguna de las categorías de cáncer. CCN luego muestreó 70 perfiles aleatorios, los anotó como "Desconocido" y los usó como datos de entrenamiento para la categoría "Desconocido". Utilizando una matriz de entrenamiento binaria de pares de genes, CCN construyó un clasificador de bosque aleatorio de clases múltiples de 2000 árboles y utilizó un muestreo estratificado de 60 tamaños de muestra para garantizar un equilibrio de los datos de entrenamiento en la construcción de los árboles de decisión.

Para identificar el mejor conjunto de genes y parámetros de pares de genes (norte y metro), utilizamos una estrategia de validación cruzada de búsqueda en cuadrícula [26] con 5 validaciones cruzadas en cada conjunto de parámetros. Los parámetros específicos para el clasificador CCN final que utiliza la función "broadClass_train" en el paquete cancerCellNet se encuentran en el archivo adicional 1: Tabla S1. Los pares de genes se encuentran en el archivo adicional 2: Tabla S2.

Validación del clasificador general de CancerCellNet

Dos tercios de los datos de tumores de pacientes de cada tipo de cáncer se muestrearon aleatoriamente como datos de entrenamiento para construir un clasificador CCN. Según los datos de entrenamiento, CCN seleccionó los genes de clasificación y los pares de genes y entrenó a un clasificador. Después de que se construyó el clasificador, se tomaron muestras de 35 muestras de cada categoría de cáncer y se generaron 40 perfiles "Desconocidos" para su validación. El proceso de muestreo aleatorio del conjunto de entrenamiento de 2/3 de todos los datos de tumores del paciente, la selección de características basadas en el conjunto de entrenamiento, el clasificador de entrenamiento y la validación se repitió 50 veces para tener una evaluación más completa del clasificador entrenado con el conjunto de parámetros óptimo. Para probar el rendimiento del CCN final en datos de prueba independientes, lo aplicamos a 725 perfiles de ICGC que abarcan 6 proyectos que no se superponen con TCGA (BRCA-KR, LIRI-JP, OV-AU, PACA-AU, PACA-CA, PRAD-FR).

Seleccionar umbrales de decisión

Nuestra estrategia para seleccionar un umbral de decisión fue encontrar el valor que maximiza la medida Macro F1 promedio [27] para cada una de las 50 validaciones cruzadas que se realizaron con el conjunto de parámetros óptimo, probando umbrales entre 0 y 1 con un incremento de 0.01. La medida F1 se define como:

Seleccionamos el umbral de ocurrencia más común por encima de 0.2 que maximizaba la medida Macro F1 promedio en las 50 validaciones cruzadas como el umbral de decisión para el clasificador final (umbral = 0.25). Se aplicó el mismo enfoque para los clasificadores de subtipos. Los umbrales y la precisión media correspondiente, la recuperación y las medidas F1 se registran en (Archivo adicional 3: Tabla S3).

Clasificación de los datos de consulta en categorías generales de cáncer

Descargamos los perfiles de expresión de la línea celular de cáncer RNA-seq (CCLE_RNAseq_genes_counts_20180929.gct publicado el 02-Jan-2019) y la tabla de muestra (Cell_lines_annotations_20181226.txt publicada el 11-Feb-2019) de (https://portals.broadinstitute.org/ ccle / data) y perfiles de expresión de líneas celulares de cáncer de microarrays y tabla de muestras de Barretina et al. [28]. Extrajimos dos perfiles de expresión de RNA-seq de NCCIT de control WT de Grow et al. [29]. Recibimos estimaciones de expresión de PDX y anotaciones de muestra de los autores de Gao et al. [19]. Recopilamos perfiles de expresión GEMM de nueve estudios diferentes [30, 31, 32, 33, 34, 35, 36, 37, 38]. Descargamos perfiles de expresión tumoral del repositorio de modelos derivados de pacientes del NCI (PDMR) [39] y de tres estudios individuales [40,41,42]. Para usar el clasificador CCN en datos GEMM, los genes de ratón de los perfiles de expresión GEMM se convirtieron en sus ortólogos humanos. Las muestras de consulta se clasificaron utilizando el clasificador CCN final. Cada perfil de clasificación de consultas se etiquetó como una de las cuatro categorías de clasificación: "correcto", "mixto", "ninguno" y "otro" según los perfiles de clasificación. Si una muestra tiene una puntuación CCN superior al umbral de decisión en la categoría de cáncer etiquetada, la asignamos como "correcta". Si una muestra tiene una puntuación CCN más alta que el umbral de decisión en la categoría de cáncer etiquetada y en otras categorías de cáncer, lo asignamos como "mixto". Si una muestra no tiene una puntuación CCN superior al umbral de decisión en cualquier categoría de cáncer o tiene la puntuación CCN más alta en la categoría "Desconocida", la asignamos como "ninguna". Si una muestra tiene una puntuación CCN más alta que el umbral de decisión en una categoría de cáncer o categorías que no incluyen la categoría de cáncer etiquetada, la asignamos como "otro". Analizamos y visualizamos los resultados utilizando paquetes R y R pheatmap [43] y ggplot2 [44].

Evaluación de especies cruzadas

Para evaluar el rendimiento de la clasificación de especies cruzadas, descargamos perfiles de expresión de RNA-seq de tipo celular / tejido humano marcado con 1003 y perfiles de expresión de RNA-seq de tipo celular / tejido de ratón marcado de 1993 de Radley et al. [45] (https://github.com/pcahan1/CellNet). Primero convertimos los genes del ratón en ortólogos humanos. Luego, encontramos los genes que se cruzan entre los perfiles de expresión celular / tejido de ratón y los perfiles de expresión celular / tejido humano. Limitando la entrada de perfiles de secuencia de ARN de tejido humano a los genes que se cruzan, entrenamos un clasificador CCN con todos los perfiles de expresión de tejido / célula humana. Los parámetros utilizados para la función "broadClass_train" en el paquete cancerCellNet se encuentran en el archivo adicional 1: Tabla S1. Tomamos muestras al azar de 75 muestras de cada categoría de tejido en datos de tejido / células de ratón y aplicamos el clasificador en esas muestras para evaluar el rendimiento.

Evaluación comparativa de clasificadores de especies cruzadas

Se utilizó el mismo conjunto de datos de capacitación y validación en la sección "Método" "Evaluación de especies cruzadas" para comparar de manera integral varios métodos de clasificación diferentes. Los parámetros de entrenamiento específicos para los 16 clasificadores de especies cruzadas se registran en el archivo adicional 4: Tabla S4. En resumen, utilizamos la misma transformación de datos y selección de características descritas en las secciones "Método" "Clasificador de bosque aleatorio basado en rangos" y "KNN y SVM basados ​​en pares de genes" para construir varios clasificadores basados ​​en pares de genes y rango de genes. Para la transformación de datos “ComBat + quantileNorm”, seguimos el procedimiento descrito en Salvadores et al. [dieciséis]. Primero realizamos la normalización cuantílica de los perfiles de expresión humanos y de ratón usando el paquete R preprocessCore [46] y luego realizamos correcciones por lotes ComBat (con 2 etiquetas de lotes de humanos y ratones) usando el paquete R sva [47]. Para la transformación de datos "quantileNorm", solo realizamos la normalización de cuantiles sin corrección por lotes.

Evaluación de tecnología cruzada

Para evaluar el rendimiento de CCN en aplicaciones de datos de microarrays, reunimos 6.219 perfiles de microarrays de tumores de pacientes en 12 tipos diferentes de cáncer de aproximadamente 75 estudios diferentes (Archivo adicional 5: Tabla S5). Encontramos los genes que se cruzan entre los perfiles de microarrays y los perfiles de secuencia de ARN de pacientes de TCGA. Limitando la entrada de perfiles de RNA-seq a los genes que se cruzan, creamos un clasificador CCN con todos los perfiles de pacientes TCGA utilizando parámetros para la función "broadClass_train" que se enumeran en el archivo adicional 1: Tabla S1. Después de que se entrenó al clasificador específico de microarrays, tomamos muestras al azar de 60 muestras de pacientes de microarrays de cada categoría de cáncer y les aplicamos el clasificador CCN como una evaluación del rendimiento de tecnología cruzada.

Comparación de pares de genes seleccionados y pares de genes aleatorios

Realizamos 20 validaciones cruzadas (2/3 de datos de entrenamiento, 1/3 de datos de validación) para comparar el rendimiento de CCN utilizando pares de genes seleccionados y pares de genes seleccionados al azar. Para garantizar una comparación justa, en cada validación cruzada se entrenaron y validaron ambos métodos de CCN utilizando los mismos datos y los mismos parámetros de entrenamiento de CCN (nTopGenes = 30, nTopGenePairs = 75). Dentro de cada validación cruzada, se seleccionaron nuevos conjuntos de pares de genes para ambos tipos de clasificador. Primero seleccionamos 30 genes regulados al alza, 30 regulados a la baja y 30 genes invariantes para cada categoría de cáncer usando la línea de entrenamiento CCN para ambos tipos de clasificadores. Para el clasificador CCN normal, se seleccionaron 75 pares de genes para cada categoría de cáncer. Para el clasificador CCN de pares de genes aleatorios, calculamos todos los pares de genes utilizando genes seleccionados para cada categoría de cáncer y los combinamos. Del conjunto de pares de genes, seleccionamos al azar 1650 pares de genes (el mismo número de pares de genes que 75 por categoría).

Clasificador de bosque aleatorio basado en rangos

Primero clasificamos la expresión génica por muestra en orden ascendente, de modo que al gen de menor expresión se le asignó como 1, y al gen de mayor expresión se le asignó un rango del número total de genes. Luego, seleccionamos aún más los 30 genes regulados positivamente, 30 genes regulados negativamente y 30 genes invariantes (30 + 30 + 30 genes) en función de sus rangos mediante el emparejamiento de plantillas y construimos un clasificador de bosque aleatorio. El clasificador de bosque aleatorio basado en rangos se validó utilizando datos de microarrays de tumores (archivo adicional 5: Tabla S5).

KNN y SVM basados ​​en pares de genes

Usando los pares de genes que fueron seleccionados por el clasificador CCN de microarrays, transformamos los datos de entrenamiento TCGA. Luego, entrenamos el clasificador KNN (paquete de Python Scikit-learn [48]) y el clasificador SVM (paquete de Python Scikit-learn [48]) y los validamos usando datos de microarrays de tumores (archivo adicional 5: Tabla S5).

Entrenamiento y validación del clasificador scRNA-seq

Extrajimos los perfiles de expresión scRNA-seq etiquetados de melanoma y glioblastoma humanos [49, 50] y compilamos los dos conjuntos de datos excluyendo 3 tipos de células T.CD4, T.CD8 y mieloide debido a un bajo número de células para el entrenamiento. Se tomaron muestras de sesenta células de cada uno de los 11 tipos de células para entrenar un clasificador de scRNA-seq. Los parámetros para entrenar un clasificador de scRNA-seq general utilizando la función "broadClass_train" se encuentran en el archivo adicional 1: Tabla S1.Se seleccionaron 25 celdas de cada uno de los 11 tipos de celdas de los datos retenidos para evaluar el clasificador de celda única. Utilizando la maximización de la medida macro F1 promedio, seleccionamos el umbral de decisión de 0.255. Los pares de genes que se seleccionaron para construir el clasificador se encuentran en el archivo adicional 2: Tabla S2. Para evaluar la capacidad de tecnología cruzada de aplicar el clasificador scRNA-seq a la RNA-seq a granel, extrajimos 305 perfiles de expresión de células humanas normales que abarcan 4 tipos de células purificadas (células B, células endoteliales, monocitos / macrófagos, fibroblasto) a partir de datos seleccionados en el Sección "Método" "Evaluación de especies cruzadas".

Subtipo de capacitación CancerCellNet

Encontramos 11 tipos de cáncer (BRCA, COAD, ESCA, HNSC, KIRC, LGG, PAAD, UCEC, STAD, LUAD, LUSC) que tienen subtipos significativos basados ​​en histología o perfil molecular y tienen muestras suficientes para entrenar un clasificador de subtipos con alta AUPRC. También incluimos muestras de tejido normal de BRCA, COAD, HNSC, KIRC y UCEC para crear una categoría de tejido normal en la construcción de sus clasificadores de subtipos. Las muestras de entrenamiento se etiquetaron como un subtipo de cáncer para el cáncer de interés o como "Desconocido" si pertenecen a otros tipos de cáncer. De manera similar al entrenamiento de clasificador general, CCN realizó la transformación de pares de genes y seleccionó los pares de genes más discriminados para cada subtipo de cáncer. Además de los pares de genes seleccionados para discriminar subtipos de cáncer, CCN también realizó una clasificación general de todos los datos de entrenamiento y agregó los perfiles de clasificación de los datos de entrenamiento con la matriz binaria de pares de genes como características adicionales. La razón detrás del uso del perfil de clasificación general como características adicionales es que muchos tipos de cáncer generales pueden compartir subtipos similares, y el perfil de clasificación general podría ser características importantes para discriminar el tipo de cáncer general de interés de otros tipos de cáncer antes de realizar una clasificación de subtipos más fina. Los parámetros específicos utilizados para entrenar clasificadores de subtipos individuales usando la función "subClass_train" del paquete CancerCellNet se pueden encontrar en Archivo adicional 1: Tabla S1 y los pares de genes se encuentran en Archivo adicional 2: Tabla S2.

Validación del subtipo CancerCellNet

De manera similar a la validación de un clasificador de clase general, tomamos muestras al azar de 2/3 de todas las muestras en cada subtipo de cáncer como datos de entrenamiento y muestreamos una cantidad igual en todos los subtipos en los 1/3 de los datos retenidos para evaluar los clasificadores de subtipos. Repetimos el proceso 20 veces para una evaluación más completa de los clasificadores de subtipos.

Clasificación de los datos de la consulta en subtipos

Asignamos un subtipo a la muestra de la consulta si la muestra de la consulta tiene una puntuación CCN superior al umbral de decisión. La tabla de umbral de decisión para clasificadores de subtipo se encuentra en el archivo adicional 3: Tabla S3. Si ninguna puntuación CCN supera el umbral de decisión en cualquier subtipo o si la puntuación CCN más alta está en la categoría Desconocida, entonces asignamos esa muestra como Desconocida. El análisis se realizó en R y las visualizaciones se generaron con el paquete ComplexHeatmap [51].

Cultivo celular, inmunohistoquímica e histomorfometría

Se adquirieron las líneas celulares Caov-4 (ATCC® HTB-76 ™), SK-OV-3 (ATCC® HTB-77 ™), RT4 (ATCC® HTB-2 ™) y NCCIT (ATCC® CRL-2073 ™) de ATCC. HEC-59 (C0026001) y A2780 (93112519-1VL) se obtuvieron de Addexbio Technologies y Sigma-Aldrich. Vcap y PC-3. SK-OV-3, Vcap y RT4 se cultivaron en medio Eagle modificado de Dulbecco (DMEM, alto contenido de glucosa, 11960069, Gibco) con penicilina-estreptomicina-glutamina al 1% (10378016, Life Technologies) Caov-4, PC-3, NCCIT , y A2780 se cultivaron usando medio RPMI-1640 (11875093, Gibco) mientras que HEC-59 estaba en medio de Dulbecco modificado de Iscove (IMDM, 12440053, Gibco). Ambos medios se complementaron con penicilina-estreptomicina al 1% (15140122, Gibco). Todos los medios incluían suero bovino fetal (FBS) al 10%.

Las células cultivadas en una placa de 48 pocillos se lavaron dos veces con PBS y se fijaron en formalina tamponada al 10% durante 24 ha 4 ° C. La inmunotinción se realizó utilizando un protocolo estándar. Las células se incubaron con anticuerpos primarios contra HOXB6 de cabra (10 μg / mL, PA5-37867, Invitrogen), WT1 de ratón (10 μg / mL, MA1-46028, Invitrogen), PPARG de conejo (1:50, ABN1445, Millipore), ratón FOLH1 (10 μg / mL, UM570025, Origene) y conejo LIN28A (1:50, # 3978, Señalización celular) en diluyente de anticuerpos (S080981-2, DAKO), a 4 ° C durante la noche seguido de tres lavados de 5 minutos en TBST . A continuación, los portaobjetos se incubaron con anticuerpos secundarios conjugados con fluorescencia a temperatura ambiente durante 1 h mientras se evitaba la luz, seguidos de tres lavados de 5 min en TBST y teñidos nucleares con medio de montaje que contenía DAPI. Las imágenes fueron capturadas por Nikon EcLipse Ti-S, DS-U3 y DS-Qi2.

La histomorfometría se realizó utilizando ImageJ (Versión 2.0.0-rc-69 / 1.52i). El% de células positivas de N. se calculó por el porcentaje del número de células teñidas positivas dividido por el número de núcleos positivos para DAPI dentro de tres de las áreas elegidas al azar. Los datos se expresaron como medias ± DE.

Análisis de pureza tumoral

Usamos el paquete R ESTIMATE [52] para calcular las puntuaciones ESTIMATE de los perfiles de expresión tumoral TCGA que usamos como datos de entrenamiento para el clasificador CCN. Para calcular la pureza del tumor, utilizamos la ecuación descrita en Yoshihara et al. [52]:

Extraer recuentos de citas

Usamos el paquete R RISmed [53] para extraer el número de citas para cada línea celular mediante la búsqueda de consultas de "nombre de la línea celular[Palabra de texto] Y cáncer[Palabra de texto] ”en PubMed. Los recuentos de citas se normalizaron dividiendo los recuentos de citas por el número de años desde que se documentaron por primera vez.

Construcción GRN y estado GRN

La construcción de la red reguladora de genes (GRN) se amplió con respecto a nuestro método anterior [54]. Se muestrearon al azar ochenta muestras por tipo de cáncer y se normalizaron mediante la reducción de muestreo como datos de entrenamiento para el algoritmo de construcción CLR GRN. Los GRN específicos del tipo de cáncer se identificaron determinando los genes expresados ​​diferencialmente por cada tipo de cáncer y extrayendo la subred utilizando esos genes.

Para extender el algoritmo de estado de GRN original [54] a través de diferentes plataformas y especies, diseñamos un algoritmo de estado de GRN basado en rangos. Al igual que el estado GRN original, el estado GRN basado en rangos es una métrica para evaluar la similitud de GRN específicos del tipo de cáncer entre los datos de entrenamiento en el tipo de cáncer de interés y las muestras de consulta. Por lo tanto, un estado de GRN alto representa un alto nivel de establecimiento o similitud de los GRN específicos del cáncer en la muestra de consulta en comparación con los de los datos de entrenamiento. Los perfiles de expresión de los datos de entrenamiento se clasificaron primero utilizando el mismo método descrito en la sección "Método" "Clasificador de bosque aleatorio basado en rangos". La media específica del tipo de cáncer y la desviación estándar de la expresión de rango de cada gen se aprendieron a partir de los datos de entrenamiento. El modificado Z-Se calcularon los valores de puntuación de los genes dentro de GRN específicos del tipo de cáncer para los perfiles de expresión de rango de la muestra de la consulta para cuantificar la diferencia entre el GRN específico del tipo de cáncer de la muestra de la consulta y el de los datos de entrenamiento de referencia:

Si se encuentra que un gen en el GRN específico del tipo de cáncer está regulado positivamente en el tipo de cáncer específico en relación con otros tipos de cáncer y si la clasificación del gen de la muestra de la consulta es igual o mayor que la clasificación media del gen en el entrenamiento de destino sample, entonces consideraríamos que el gen de la muestra de la consulta es similar al de la muestra de entrenamiento. Como resultado de la similitud, asignamos ese gen de un Z-puntuación de 0. El mismo principio se aplica a los casos en los que el gen está regulado negativamente en la subred específica del cáncer. De lo contrario, el modificado Z-score es el mismo que el valor absoluto de Z-puntaje.

El estado de GRN para la muestra de consulta se calcula como la media ponderada de (1000 - Zscore(gen i)modificación) a través de genes en GRN específicos del tipo de cáncer. 1000 es un número grande arbitrario, y una mayor diferencia entre el GRN específico del tipo de cáncer de la consulta conduce a un alto Z-puntuaciones para los genes GRN y bajo estado de GRN.

El peso de los genes individuales en la red específica del cáncer está determinado por la importancia del gen en el clasificador CCN. Finalmente, el estado de GRN se normaliza con respecto al estado de GRN del tipo de cáncer de interés y el tipo de cáncer con el estado de GRN medio más bajo.

"Min cáncer" representa el tipo de cáncer donde sus datos de entrenamiento tienen el estado GRN medio más bajo en el tipo de cáncer de interés, y promedio(Estado GRNmin cáncer) representa el estado de GRN promedio más bajo en el tipo de cáncer de interés. promedio(Estado GRNinterés por el tipo de cáncer) representa el estado GRN promedio del tipo de cáncer de interés en los datos de entrenamiento.


Conclusión

La señal EMG transporta información valiosa sobre el sistema nervioso. Entonces, el objetivo de este trabajo fue brindar información breve sobre EMG y revelar las diversas metodologías para analizar la señal. Se discutieron las técnicas para la detección, descomposición, proceso y clasificación de señales EMG, junto con sus ventajas y desventajas. El descubrimiento de un problema o desventaja en un método conduce a otros métodos mejorados. Este estudio señala claramente los diversos tipos de técnicas de análisis de señales EMG para que se puedan aplicar los métodos correctos durante cualquier diagnóstico clínico, investigación biomédica, implementaciones de hardware y aplicaciones de usuario final.


Estrategias para investigar la plasticidad de la red

Tecnologías de imágenes cerebrales: todas las neuronas pero de baja resolución

Trabajando hacia el objetivo de obtener imágenes simultáneamente de la actividad en todo el cerebro, se han empleado varias tecnologías más nuevas. Por ejemplo, la resonancia magnética funcional (IRM), que se basa en la detección de los niveles de oxígeno en la sangre mediante la tecnología de imágenes por resonancia molecular, puede determinar de forma no invasiva qué áreas del cerebro están más activas, ya que el aumento del metabolismo se refleja en el cambio. en el flujo sanguíneo. Se emplea un principio similar para las exploraciones por tomografía por emisión de positrones (PET), en las que se rastrea un análogo de glucosa radiomarcado en tres dimensiones. El aumento del metabolismo es de nuevo una medida de actividad.

Varios estudios han utilizado esta técnica para mapear regiones cerebrales responsables de funciones conductuales específicas después del entrenamiento o durante la recuperación de un accidente cerebrovascular, y han abordado la plasticidad global al monitorear la actividad metabólica en áreas asignadas a una función específica (Jasanoff, 2005 Mechelli et al., 2005 Smirnakis et al., 2005 Sowell et al., 2004). Si bien se han logrado resultados espectaculares, el nivel de resolución todavía está restringido a grandes áreas del cerebro que contienen millones de neuronas. Para mejorar aún más la resolución e interpretación de tales estudios de imágenes basados ​​en el metabolismo, estas técnicas se han combinado con electroencefalografía de alta resolución (EEG) y magnetoencefalografía (MEG) para correlacionar las imágenes anatómicas con patrones de activación más detallados de las neuronas. Además de la tecnología de imágenes tridimensionales, también se están desarrollando nuevas técnicas bioquímicas para utilizar colorantes sensibles al voltaje y sensibles al calcio (Baker et al., 2005), así como sistemas basados ​​en transferencia de energía por resonancia de fluorescencia (FRET) (Chanda et al., 2005). al., 2005) para observar (o monitorear) la actividad neuronal. Las tecnologías de imágenes cerebrales tienen una gran ventaja en su capacidad para examinar grandes conjuntos de neuronas simultáneamente, lo que brinda una gran visión general de la actividad en todo el cerebro.

Dinámica de red in vivo: cientos de neuronas, mejor resolución

La investigación de cómo los cambios en la conectividad neuronal alteran la función de la red en su conjunto requiere un nivel de resolución mucho mayor. Durante la última década, los avances en las técnicas de microscopía ofrecen nuevas estrategias muy mejoradas hacia este objetivo. La formación de imágenes de dos fotones de tejido neuronal vivo que expresa la proteína fluorescente GFP ha permitido obtener imágenes detalladas de la arquitectura neuronal tanto antes como después de un paradigma de aprendizaje (Mainen et al., 1999). Estas tecnologías han descubierto muchos detalles sobre las propiedades físicas de la conectividad neuronal y la plasticidad. Sin embargo, para lograr este nivel de resolución, se debe limitar la cantidad de tejido que se puede monitorear simultáneamente. Esto se logra in vitro tomando cortes de tejido cerebral, a menudo del hipocampo, una estructura cerebral intensamente estudiada debido a su participación en el aprendizaje y la memoria. Sin embargo, estudios recientes han demostrado que este enfoque también es factible en el animal intacto, mediante el uso de indicadores de actividad fluorescentes sensibles al calcio en la corteza visual (Ohki et al., 2005).

Quizás la mayor riqueza de información sobre la función neuronal en un entorno de red se haya obtenido mediante el análisis electrofisiológico de cortes de tejido. Al registrar tanto directamente de neuronas individuales utilizando técnicas de pinza de parche de células completas como de pequeños grupos de neuronas utilizando electrodos de grabación extracelulares, podemos recopilar información detallada sobre la dinámica eléctrica de las redes neuronales de mamíferos en funcionamiento. Los cortes de tejido cerebral se pueden mantener vivos y funcionales durante horas y tienen la ventaja de mantener la misma conectividad de red que se observa en los animales intactos. Los estudios de cortes de tejido intacto han descubierto fenómenos como LTP y LTD, así como la plasticidad dependiente de la sincronización de los picos, en los que la sincronización aguda de la actividad en varias vías paralelas y convergentes puede iniciar la plasticidad en la red. Aunque estos experimentos han sido pioneros en nuestra comprensión de cómo funcionan las neuronas a nivel de sistemas, sin embargo, están drásticamente limitados en el número de neuronas que se pueden examinar simultáneamente.

El paradigma más nuevo

Cultivos disociados: menos neuronas, mayor resolución

Si bien los cortes de tejido tienen la ventaja de mantener la conectividad de la red, sufren de una vida útil corta durante el procedimiento experimental. Para superar este problema, se han desarrollado dos estrategias principales. Uno es el uso de cultivos organotípicos, donde los cortes de tejido se disocian parcialmente y se dejan crecer en una membrana de nailon, manteniendo su conectividad básica y permitiendo el acceso de nutrientes a todas las neuronas de la red. Esta técnica se ha utilizado para demostrar fenómenos a más largo plazo, que de otro modo no podrían observarse en cortes aislados de cerebro o tejido, debido a su menor esperanza de vida (Dong y Buonomano, 2005 Hasenstaub et al., 2005).

Las neuronas disociadas en cultivo celular de sus respectivas áreas en el cerebro intacto pueden recapitular sus patrones de conectividad y permanecer viables durante meses, siempre que se cumplan las condiciones adecuadas de sustrato y factores tróficos (Potter y DeMarse, 2001). Una advertencia con este enfoque es que se pierde la integridad estructural y funcional de la red original. Sin embargo, las neuronas tomadas de animales embrionarios o neonatales tienen una capacidad notable para reconectarse en consecuencia, y si se les proporcionan condiciones propicias para el crecimiento y la sinapsis, es probable que se conecten de una manera similar a esa. en vivo. Por ejemplo, la conectividad neuronal que dota a la retina en desarrollo de generar ondas de actividad. en vivo, se recapitula en cultivo celular, cuando estas neuronas crecen en presencia de factores de crecimiento apropiados (Colicos et al., 2004). Un uso tan juicioso de las técnicas de cultivo nos ha permitido reconstruir redes de neuronas conectadas funcionalmente, que generan una actividad rítmica modelada, de una manera similar a la vista. en vivo (Syed et al., 1990). Del mismo modo, muchos en vivo-como patrones de actividad neuronal, que incluyen LTP y LTD, así como una gran variedad de fenómenos dependientes del tiempo de picos, se han observado en neuronas cultivadas (Hasenstaub et al., 2005 Netoff et al., 2005 Aradi y Maccaferri, 2004) . Además, las células en cultivo se pueden transfectar con genes específicos para expresar proteínas exógenas o para reducir los niveles de moléculas endógenas. Por lo tanto, los sistemas de cultivo son una forma práctica de determinar directamente la importancia funcional de varias proteínas en las funciones neuronales.

Varias técnicas de grabación de imágenes y electrofisiológicas empleadas en vivo también se puede adoptar para neuronas cultivadas, aunque con una resolución mucho más alta y con mayor fidelidad. Debido a que las células disociadas se pueden colocar en estrecho contacto con el sustrato en comparación con su en vivo contrapartes, esto proporciona una ventaja única con la que desarrollar una forma completamente nueva de interconectar dispositivos de grabación con neuronas.


4. DISCUSIÓN

Usamos modelos computacionales para estudiar el impacto de las correlaciones del tren de picos en la salida de los ganglios basales en la transmisión de señales motoras. Basándonos en estudios previos, enfocamos nuestra descripción en pausas relacionadas con el movimiento en la actividad de SNr (Hikosaka & Wurtz, 1983 Leblois et al., 2007 Schmidt et al., 2013 Schultz, 1986) y examinamos su efecto sobre el tálamo motor en la transmisión de rebote. modo. Sin embargo, como también las neuronas en, por ejemplo, el colículo superior pueden responder con un pico de rebote después de una hiperpolarización prolongada (Saito & Isa, 1999), nuestros resultados de modelado podrían aplicarse de manera más general. Además, mientras que estudios previos identificaron el papel importante de la excitación en la determinación de los regímenes en los que pueden ocurrir picos de rebote (Edgerton y Jaeger, 2014 Goldberg et al., 2013), nuestro modelo produjo picos de rebote en un régimen de parámetros más amplio, también en presencia de excitación (Figura 6). Además, los picos de rebote se superpusieron con el modo de transmisión de desinhibición, lo que indica que es posible que los diferentes modos de transmisión no siempre sean claramente separables. En nuestro modelo, la transmisión nigotalámica alterada de las señales motoras para las entradas correlacionadas también indica un papel funcional potencial de la actividad no correlacionada en las regiones de salida de los ganglios basales, posiblemente como resultado de la descorrelación activa (Wilson, 2013).

Si bien aquí nos centramos en las condiciones y propiedades de los picos de rebote, nuestro modelo no apoya que los picos de rebote sean el modo de transmisión nigotalámico dominante en animales sanos. De acuerdo con estudios previos, encontramos que los picos de rebote ocurren principalmente por actividad correlacionada (imitando condiciones patológicas). Además, los picos de rebote dependían de tres parámetros principales de las conexiones nigotalámicas: la fuerza de inhibición, el grado de convergencia y el número de neuronas SNr que disminuyen la velocidad. Actualmente, se desconocen los valores de estos parámetros, pero los estudios experimentales proporcionan estimaciones aproximadas, y nuestro enfoque computacional nos permitió determinar el rango de valores de los parámetros bajo los cuales pueden ocurrir picos de rebote. Además, las neuronas de salida de los ganglios basales tienen patrones de activación heterogéneos durante las tareas motoras (Hikosaka y Wurtz, 1983 Leblois et al., 2007 Schmidt et al., 2013 Schultz, 1986 Schwab et al., 2020). Por lo tanto, parece plausible que también el modo de transmisión pueda variar entre neuronas y con el tiempo. En consecuencia, los picos de rebote solo pueden ocurrir en circunstancias específicas en el tálamo motor e involucrar solo a un subconjunto de neuronas. De manera similar, los resultados de nuestro modelo indicaron que puede haber condiciones específicas en las que también podría ocurrir un repunte de rebote en animales sanos.Por ejemplo, las pausas relacionadas con el movimiento sincrónico en muchas neuronas SNr podrían constituir una señal transitoria que podría conducir a un aumento de rebote en un subconjunto de neuronas en el tálamo motor. Sin embargo, esto requeriría conexiones fuertes y específicas de SNr al tálamo para que las neuronas SNr con el mismo patrón de activación converjan en la misma neurona talamocortical. Como estos picos de rebote solo formarían un pequeño subconjunto del número total de picos talámicos, podría ser difícil detectarlos en registros extracelulares (Schwab et al., 2020).

Los resultados de nuestro modelo también indicaron que el aumento de rebote depende de la tasa de activación inicial de las neuronas del tálamo motor. En particular, es más probable que las neuronas con una tasa de activación de línea de base baja transmitan señales motoras a través de picos de rebote (Figura 6a). A partir de estudios experimentales, sabemos que las neuronas en el tálamo motor tienen diversas tasas de activación basales (Gaidica et al., 2018 Guo et al., 2017). Por lo tanto, predeciríamos que el subconjunto de neuronas con bajas tasas de activación de la línea de base es más probable que exhiba picos de rebote cuando reciben entradas sincrónicas. Además, la fuerza de la conexión nigotalámica fue un parámetro importante en nuestras simulaciones, con conexiones más fuertes que favorecen la generación de picos de rebote (Figura 6a, ver también Kuramoto et al., 2011). Por lo tanto, cualquier cambio en la fuerza de la conexión nigotalámica, por ejemplo, durante el aprendizaje motor, también puede afectar la propensión del circuito a generar picos de rebote.

Los estudios experimentales han demostrado que la actividad de rebote a menudo implica ráfagas que constan de varios picos (Bosch-Bouju et al., 2014 Edgerton & Jaeger, 2014 Magnin et al., 2000). Por el contrario, nuestro modelo aquí generalmente respondió solo con un solo pico de rebote. En nuestro modelo, esto tenía la ventaja de simplificar nuestra cuantificación de la calidad de transmisión, lo que requeriría medidas adicionales para clasificar los picos dentro de una ráfaga de rebote. Es importante destacar que en una variación del modelo con ráfagas de rebote, el efecto general de las correlaciones sobre la calidad de la transmisión permanecería igual (Figura S3). Si bien las ráfagas de rebote en el tálamo motor podrían desempeñar un papel en la transmisión de señales motoras aguas abajo, esto está más allá del alcance de este artículo.

4.1 Papel funcional de la decorrelación activa en los ganglios basales

Una característica destacada de la actividad neuronal en los ganglios basales sanos es la ausencia de correlaciones de picos (Bar-Gad et al., 2003). Esto podría deberse a la actividad de marcapasos autónoma de las neuronas en el globo pálido externo / interno (GPe / GPi), el núcleo subtalámico (STN) y la SNr, así como a otras propiedades de la red como la heterogeneidad de las velocidades de disparo y la conectividad que contrarresta activamente la sincronización de actividad (Wilson, 2013). Si bien la actividad de los ganglios basales no correlacionada puede maximizar la transmisión de información (Wilson, 2015), nuestras simulaciones demuestran que previene aún más la aparición de pausas aleatorias en la actividad de SNr / GPi que podrían impulsar picos de rebote del tálamo. Por lo tanto, la actividad de salida de los ganglios basales no correlacionada puede asegurar que los picos de rebote en las neuronas del tálamo motor generalmente no se produzcan en animales sanos o solo se produzcan con señales apropiadas, como las disminuciones relacionadas con el movimiento en la velocidad de activación de la salida de los ganglios basales. Por el contrario, la actividad de salida de los ganglios basales correlacionada conduce a la actividad de rebote en el tálamo motor también en la actividad SNr basal, es decir, en ausencia de cualquier señal motora. Esta disminución en la relación señal / ruido de las señales del motor puede causar problemas en el control del motor.

La evidencia de la relevancia funcional de la actividad de los ganglios basales no correlacionada se origina en la observación prominente de que la actividad de los ganglios basales se correlaciona en la enfermedad de Parkinson (Bergman et al., 1998 Nevado-Holgado et al., 2014). Por lo tanto, nuestras simulaciones con la actividad de salida de los ganglios basales correlacionados capturan un aspecto clave de la actividad neuronal en la enfermedad de Parkinson. Curiosamente, nuestro hallazgo de que las correlaciones de los ganglios basales aumentan la tasa de picos de rebote del tálamo motor está en línea con hallazgos experimentales recientes. En ratones con deficiencia de dopamina con síntomas motores similares a los de Parkinson, la tasa de picos de rebote del tálamo motor también aumentó en comparación con los controles sanos (Kim et al., 2017). Además, se encontró una mayor variabilidad de ensayo a ensayo de los picos de rebote en ratones con agotamiento de dopamina, similar a nuestras simulaciones (Figura 3).

Por lo tanto, nuestros resultados demuestran el papel de la actividad no correlacionada en la transmisión de señales motoras de alta fidelidad con baja variabilidad de prueba a prueba desde los ganglios basales hasta el tálamo motor. La actividad no correlacionada podría ser el resultado de una descorrelación activa en los ganglios basales (Wilson, 2013). Por el contrario, las correlaciones patológicas pueden conducir a una transmisión ruidosa y poco confiable de señales motoras con una alta variabilidad de ensayo a ensayo, lo que podría contribuir a los síntomas motores de la enfermedad de Parkinson.

4.2 Papel de los picos de rebote en la potencia del motor

En nuestras simulaciones, solo examinamos la actividad de una única neurona talamocortical. Sin embargo, para las señales motoras que se propagan más hacia abajo, la coordinación de la actividad entre diferentes neuronas talamocorticales podría ser relevante. Debido a la baja variabilidad de ensayo a ensayo de la latencia de respuesta de los picos de rebote (Figura 6b), en el modelo, las pausas en la actividad de SNr de la población conducirían a picos de rebote sincrónicos entre las neuronas talamocorticales. Por el contrario, las entradas excitatorias de Poisson de la corteza aumentaron la variabilidad de ensayo a ensayo (Figura 6b) y, por lo tanto, no conducirían a una actividad sincrónica entre las neuronas talamocorticales. Aunque las regiones aguas abajo no pueden distinguir directamente los picos de rebote del tálamo de los picos impulsados ​​por la excitación, pueden leer la actividad sincrónica que se produce principalmente para los picos de rebote. Por lo tanto, solo la actividad coordinada en diferentes neuronas talamocorticales puede conducir al inicio del movimiento (Gaidica et al., 2018) o la contracción muscular (Kim et al., 2017). Esto está en consonancia con el hallazgo experimental que muestra que, a pesar de que no hay diferencias significativas en las tasas de activación máxima o promedio de las grabaciones de una sola unidad de neuronas intactas y knockout que carecen de Ca 2+ tipo T en el tálamo motor, las grabaciones de unidades múltiples de neuronas intactas alcanzaron una una tasa de activación máxima más fuerte antes que las neuronas knockout (Kim et al., 2017). Esta activación temprana de una mayor proporción de neuronas intactas después de la terminación de la inhibición, lo que indica una actividad coordinada entre las neuronas, estuvo acompañada de una respuesta muscular, mientras que no se observó respuesta muscular en el estado de desactivación (Kim et al., 2017) . Por lo tanto, la actividad de rebote en una neurona del tálamo motor individual puede no conducir a la contracción muscular, pero en su lugar pueden ser necesarios picos de rebote sincrónicos en varias neuronas del tálamo motor.

4.3 Impacto de las respuestas sensoriales en la transmisión de señales motoras

Las neuronas SNr que disminuyen su actividad durante el movimiento también responden a estímulos sensoriales sobresalientes como los estímulos auditivos "Go" que indican el movimiento (Pan et al., 2013 Schmidt et al., 2013). Un papel funcional propuesto para este breve aumento de la tasa de disparo es prevenir respuestas impulsivas o prematuras durante la preparación del movimiento en las neuronas SNr (Schmidt et al., 2013). Además, en nuestro modelo, observamos que, dependiendo del momento preciso, las entradas inhibitorias que imitan las respuestas sensoriales también pueden promover picos de rebote talamocortical. Este efecto estuvo presente en el modelo cuando las respuestas sensoriales precedieron a la disminución relacionada con el movimiento hasta en 40 ms (Figura 4).

En ratas, al realizar una tarea de señal de parada, las mismas neuronas SNr que respondieron al estímulo 'Go' también respondieron a una señal auditiva de 'Stop', lo que provocó la cancelación del próximo movimiento (Schmidt et al., 2013). Estas respuestas se observaron en los ensayos, en los que las ratas cancelaron correctamente el movimiento, pero no en los ensayos en los que no pudieron cancelar el movimiento. Estas respuestas de SNr a la señal de "Parada" pueden retrasar el inicio del movimiento, lo que permite que otro proceso más lento cancele por completo el movimiento planificado (Mallet et al., 2016). En línea con este modelo de parada de `` pausa y luego cancelar '' (Schmidt & Berke, 2017), observamos que las respuestas sensoriales de SNr también pueden prevenir picos de rebote cuando ocurren cerca del momento de la señal motora. En nuestro modelo, este efecto de supresión estuvo presente hasta 40 ms después del inicio de la disminución relacionada con el movimiento en la actividad de SNr (Figura 4). Por lo tanto, nuestro modelo proporciona una predicción de la ventana temporal de la contribución funcional de las respuestas sensoriales en SNr al comportamiento. Es importante destacar que las respuestas sensoriales podrían promover o suprimir los movimientos, dependiendo de su sincronización relativa a la señal motora, proporcionando un medio muy flexible para integrar señales sensoriales y motoras en circuitos nigotalámicos. Sin embargo, debido al rango de parámetros restringido en el que nuestro modelo generó picos de rebote, no está claro si la modulación de los picos de rebote por las respuestas sensoriales también podría ocurrir en animales sanos.

4.4 Efectos de DBS

En nuestro modelo, la actividad correlacionada de los ganglios basales aumentó el número de picos de rebote en las neuronas talamocorticales. En particular, las correlaciones de orden superior conducen a pausas en la actividad de la población de SNr que promueven picos de rebote, mientras que las correlaciones por pares por sí solas no afectaron la transmisión nigotalámica de señales motoras (Figura 2b). Esto sugiere que en la enfermedad de Parkinson las correlaciones de orden superior son relevantes para los síntomas motores, lo que ofrece una idea de los posibles mecanismos mediante los cuales la estimulación cerebral profunda (DBS) podría aliviar algunos de los síntomas motores como la rigidez y el temblor. DBS en STN y GPi tiene efectos complejos y diversos sobre la tasa de activación de neuronas en SNr / GPi (Bar-Gad et al., 2004 Zimnik et al., 2015) y tálamo (Muralidharan et al., 2017). Según nuestro modelo, los fuertes aumentos en las tasas de disparo de SNr y GPi observados después de STN DBS (Hashimoto et al., 2003 Maurice et al., 2003) disminuirían la duración de las pausas espontáneas en la actividad de la población (Figura 3c). Por lo tanto, incluso para la actividad SNr correlacionada, la duración de las pausas no sería lo suficientemente larga para permitir la generación de un pico de rebote en la neurona talamocortical. Esta conclusión también es válida cuando un subconjunto de neuronas en SNr y GPi disminuyen su tasa de activación durante STN DBS (Hahn et al., 2008 Humphries & Gurney, 2012). La disminución en la tasa de disparo disminuiría el grado de correlación al eliminar o desplazar los tiempos de picos sincrónicos y, por lo tanto, debilitaría la inhibición que precede a las pausas que podrían haber evocado picos de rebote.


Innovación en el cerebro colectivo

A menudo se asume que la innovación es el trabajo de unos pocos talentosos, cuyos productos se transmiten a las masas. Aquí, argumentamos que las innovaciones son, en cambio, una propiedad emergente de las habilidades de aprendizaje cultural de nuestra especie, aplicadas dentro de nuestras sociedades y redes sociales. Nuestras sociedades y redes sociales actúan como cerebros colectivos. Describimos cuántos cerebros humanos, que evolucionaron principalmente para la adquisición de cultura, juntos engendran un cerebro colectivo. Dentro de estos cerebros colectivos, las tres fuentes principales de innovación son la serendipia, la recombinación y la mejora incremental. Argumentamos que las tasas de innovación están fuertemente influenciadas por (i) socialidad, (ii) fidelidad de transmisión y (iii) variación cultural. Discutimos algunas de las fuerzas que afectan estos factores. Estos factores también pueden moldearse entre sí. Por ejemplo, proporcionamos evidencia preliminar de que la eficiencia de transmisión se ve afectada por la sociabilidad: los idiomas con más hablantes son más eficientes. Sostenemos que los cerebros colectivos pueden hacer que cada uno de sus cerebros culturales constituyentes sea más innovador. Esta perspectiva arroja luz sobre rasgos, como el coeficiente intelectual, que han sido implicados en la innovación. Una perspectiva cerebral colectiva puede ayudarnos a comprender los hallazgos que de otro modo serían desconcertantes en la literatura sobre el coeficiente intelectual, incluidas las diferencias de grupo, las diferencias de heredabilidad y el aumento dramático en los puntajes de las pruebas de coeficiente intelectual a lo largo del tiempo.

1. Introducción

Hace sesenta mil años, un grupo de primates tropicales abandonó África y comenzó a explorar el mundo. Hace unos 12 000 años, la mayoría de los principales ecosistemas del planeta habían sido colonizados, desde exuberantes selvas tropicales hasta tundra helada y desiertos áridos. La colonización de estos diversos entornos se logró en gran medida a través de la innovación tecnológica y social desarrollada culturalmente, más que a través de la adaptación genética local (aunque también hubo algo de esto [1]). ¿De dónde provienen esta tecnología y esta cultura? ¿Cómo inventaron nuestros antepasados ​​herramientas, descubrieron conocimientos y desarrollaron un cuerpo de creencias, valores y prácticas que les permitieron sobrevivir en entornos tan ajenos a su tierra ancestral africana? ¿Cómo puede la respuesta a estas preguntas informar nuestra comprensión de la innovación a lo largo de la historia y en el mundo moderno?

Una respuesta histórica popular a estas preguntas es que las personas inteligentes de antaño inventaron estas herramientas, descubrieron este conocimiento y prescribieron y proscribieron obligaciones y tabúes. Estas prácticas y conocimientos se transmitieron de generación en generación [2, 3]. Se dice, por ejemplo, que Crow [4] les dio a los aborígenes australianos conocimientos sobre cómo hacer fuego, Mātariśvan [5] a los indios y Prometeo [6] a los griegos. Mimi enseñó a los aborígenes australianos a cazar y cocinar canguros [7], y más recientemente, Shaka Zulu inventó el iklwa lanza corta [8]. Estos astutos ancestros, que a veces ascienden al estatus divino, a menudo son invocados para sancionar formas, protocolos o prácticas adecuadas [9], reforzando su estatus de "inventor". Las personas NO EXTRAÑAS (occidentales, educadas, industrializadas, ricas y democráticas) [10] y los miembros de sociedades de pequeña escala no están solos en estas creencias. A los niños EXTRAÑOS se les enseña que Edison (o Swan) inventó la bombilla, Gutenberg la imprenta, Newton "el cálculo" y Ford el automóvil. La intuición subyacente es que la innovación es un esfuerzo individual, impulsado por genios heroicos y luego transmitido a las masas. O como Pinker [11, p. 209] lo describe, las innovaciones (o "memes complejos" [11]) surgen cuando "una persona se pone nerviosa, se devana la cabeza, reúne su ingenio y compone o escribe o pinta o inventa algo".

En cambio, sostenemos que las innovaciones, grandes o pequeñas, no requieren genios heroicos más de lo que sus pensamientos dependen de una neurona en particular. Más bien, así como los pensamientos son una propiedad emergente de las neuronas que se activan en nuestras redes neuronales, las innovaciones surgen como una consecuencia emergente de la psicología de nuestra especie aplicada dentro de nuestras sociedades y redes sociales. Nuestras sociedades y redes sociales actúan como cerebros colectivos. Los individuos conectados en cerebros colectivos, que transmiten y aprenden información de manera selectiva, a menudo fuera de su conciencia, pueden producir diseños complejos sin la necesidad de un diseñador, tal como lo hace la selección natural en la evolución genética. Los procesos de evolución cultural acumulativa dan como resultado tecnologías y técnicas que ningún individuo podría recrear en su vida y no requieren que sus beneficiarios comprendan cómo y por qué funcionan ([12] material complementario electrónico, para mayor discusión). Tales adaptaciones culturales parecen estar funcionalmente bien diseñadas para hacer frente a los problemas locales, pero carecen de un diseñador.

Aquí, describimos con más detalle los orígenes y maquinaciones de los cerebros colectivos. Comenzamos discutiendo las "neuronas" del cerebro colectivo, individuos con cerebros evolucionados y totalmente dependientes de la adquisición de cultura.cerebros culturales. Nuestros cerebros culturales evolucionaron en conjunto con nuestros cerebros colectivos y son bastante limitados en aislamiento. De hecho, existen numerosos ejemplos del fracaso de los exploradores de cerebro grande para sobrevivir en nuevos entornos sin acceso a cuerpos acumulativos de conocimientos culturales [12]. Resumimos la evolución de los cerebros culturales y la psicología resultante, y luego explicamos cómo esos cerebros individuales engendran cerebros colectivos. Esbozamos cómo los cerebros culturales están vinculados a cerebros colectivos que generan invenciones y difunden innovaciones, y luego discutimos los factores que han influido en las tasas de innovación a lo largo de la historia y en todas las sociedades. Heurísticamente, estos se pueden dividir en (i) socialidad, (ii) fidelidad de transmisión y (iii) variación de transmisión. Cada uno de estos factores influye en la velocidad de la evolución cultural adaptativa y la tasa de innovación, pero también se afectan entre sí. Por ejemplo, la evolución cultural puede moldear la eficiencia de transmisión de las lenguas. Ilustrando esta posibilidad, mostramos cómo el tamaño de la comunidad de hablantes se relaciona con la eficiencia comunicativa de una lengua. Estos resultados sugieren que el lenguaje puede estar sujeto a los mismos procesos evolutivos culturales que otras tecnologías. Por último, examinamos algunas de las formas en que los cerebros colectivos pueden retroalimentar para hacer que cada uno de sus cerebros culturales constituyentes sea "más inteligente", o al menos cognitivamente mejor equipado para hacer frente a los desafíos locales. Al hacerlo, abordamos un aspecto poco estudiado de la evolución cultural, cómo la cultura afecta a la cultura, es decir, cómo las ideas interactúan para cambiar el panorama de la innovación, limitando y abriendo nuevos espacios de pensamiento.

2. El cerebro cultural y el cerebro colectivo

¿Por qué los humanos son tan diferentes de todos los demás animales? Muchos han sugerido que la respuesta está en nuestros cerebros masivos, que triplicaron su tamaño en los últimos millones de años [13,14] y son 3,5 veces más grandes que los chimpancés modernos. Este aumento es desconcertante. Más desconcertante aún, puede ser parte de una tendencia a largo plazo hacia cerebros más grandes y complejos en muchos taxones [14-16]. La fuente del enigma es que mientras tanto las especies cruzadas [17-20] como la evidencia experimental directa [21] sugieren que los cerebros más grandes están asociados con una mayor capacidad cognitiva, el tejido cerebral es energéticamente y económicamente caro [22]. Una especie necesita poder pagar por un cerebro más grande. Una forma de reducir el costo es intercambiar otros tejidos costosos, la tasa metabólica y / o cambiar la estrategia de inversión reproductiva [23, 24]. Otro es aumentar el aporte de energía asegurando una fuente confiable de más calorías [24]. Para pagar por nuestros cerebros más grandes, obtuvimos acceso a alimentos con más calorías, que adquirimos a través de una combinación de mejores herramientas y técnicas para buscar mejores conocimientos para acceder a fuentes de alimentos con alto contenido de calorías, como tubérculos, raíces y miel, y mejores alimentos. técnicas de procesamiento (para una revisión reciente y evidencia, ver [12]). En particular, procesar alimentos mediante la cocción permitió que nuestro género liberara más calorías de las mismas fuentes de alimentos; sin embargo, como muchos estudiantes universitarios pueden atestiguar, cocinar no es una habilidad que se desarrolle de manera confiable y esté programada genéticamente. Nuestra confianza en herramientas, técnicas y conocimientos que no están programados es una pista para resolver el rompecabezas del gran cerebro humano.

(a) La evolución de los cerebros culturales

Los seres humanos poseen cerebros culturales, cerebros que evolucionaron principalmente para la adquisición de conocimiento adaptativo. Un gran cuerpo de evidencia teórica y empírica bajo el paraguas de teoría de la herencia dual o coevolución gen-cultivo ahora apoya esta perspectiva (para una revisión reciente, ver [12,25,26]). Esta hipótesis cultural del cerebro propone que la presión de selección principal para los cerebros grandes en muchos taxones fue el conocimiento adaptativo: información adaptativa localmente relacionada plausiblemente con la resolución de problemas como encontrar y procesar alimentos, evitar depredadores, fabricar herramientas y localizar agua. La disponibilidad de este conocimiento y los beneficios asociados con él son los que limitan el tamaño de los cerebros.

Para explorar la hipótesis del cerebro cultural, recientemente construimos un modelo de simulación evolutiva que captura las relaciones causales descritas en la figura 1 (bajo revisión). A continuación, presentamos una exposición verbal de este modelo. El tamaño / complejidad / organización del cerebro (las diferentes medidas del tamaño del cerebro suelen estar muy correlacionadas [27]) coevoluciona con el conocimiento adaptativo. Los cerebros más grandes y complejos pueden almacenar y gestionar más información y, a su vez, esta información puede soportar los costes de un cerebro más grande. Este conocimiento adaptativo podría adquirirse de forma asocial, como encontrar una fuente de alimento y recordar su ubicación, o socialmente, como copiar un conespecífico en un método de extracción de alimentos. Más y mejor conocimiento adaptativo respalda una mayor capacidad de carga al permitir que sobrevivan más personas. Si esos grupos tienen suficiente conocimiento adaptativo, entonces el aprendizaje social podría verse favorecido. Los aprendices sociales pueden adquirir conocimientos más adaptativos a un costo menor, y sin tener que generar la información, hacerlo con un cerebro más pequeño. Los grupos más grandes de estudiantes sociales con conocimientos más adaptativos crean una presión de selección durante un período juvenil prolongado para adquirir este conocimiento. En algunas circunstancias, esto puede conducir a un aprendizaje indirecto y sesgos selectivos para distinguir de quién aprender: el camino humano hacia cerebros verdaderamente culturales.

Figura 1. Relaciones causales sugeridas por la hipótesis del cerebro cultural y capturadas en nuestra simulación. El aprendizaje oblicuo y los sesgos de aprendizaje se refieren a la capacidad de seleccionar padres no genéticos con un conocimiento más adaptativo de quienes aprender socialmente.

Nuestra simulación apunta a la existencia de al menos dos regímenes: especies que dependen más del aprendizaje social y especies que dependen más del aprendizaje social. En ambos regímenes, la teoría predice una relación entre el tamaño del cerebro y el conocimiento adaptativo. Para los estudiantes principalmente asociales, la teoría predice una relación más débil (o inexistente) entre el tamaño del cerebro / capacidad cognitiva y el tamaño del grupo, porque el tamaño del grupo solo aumenta con una mayor capacidad de carga a través de los beneficios del conocimiento adaptativo. En contraste, para los taxones con cierta cantidad de aprendizaje social, la teoría predice una fuerte relación entre el tamaño del cerebro y el tamaño del grupo (y otras medidas de socialidad), porque el tamaño del grupo también proporciona acceso a un conocimiento más adaptativo. En estos taxones más dependientes del aprendizaje social, la teoría también predice intercorrelaciones positivas entre las otras variables en la figura 1.

Tamaño del cerebro y capacidad cognitiva general. [19,20,28]. Una mayor capacidad cognitiva implica una mayor capacidad para almacenar, gestionar, integrar y utilizar más conocimientos.

Tamaño del cerebro y tamaño del grupo u otras medidas de socialidad: la base de la hipótesis del cerebro social [29]. Tales relaciones son un subproducto de los cerebros que evolucionan para adquirir conocimiento adaptativo, y se predice que serán más fuertes entre los taxones con más aprendizaje social, porque los grupos más grandes poseen un conocimiento más adaptativo para que los aprendices sociales lo exploten.

Tamaño del cerebro y aprendizaje social [18,30]. El aprendizaje más social evoluciona en presencia de un conocimiento más adaptativo, lo que permite cerebros más grandes.

Tamaño del cerebro y duración del período juvenil. [31]. El período juvenil se extiende cuando los aprendices sociales requieren más tiempo para adquirir un cuerpo más amplio de conocimiento adaptativo.

Tamaño del grupo y duración del período juvenil [32]. Un subproducto de grupos más grandes que poseen un conocimiento más adaptativo, lo que resultó en un período juvenil extendido.

Tamaño del grupo y número de rasgos culturales [33,34]. Los grupos más grandes de estudiantes sociales poseen un conocimiento más adaptativo. Se espera que esta relación sea más fuerte en el ámbito de la evolución cultural acumulativa [35-39]: los humanos.

Estas variables están interrelacionadas, porque son un subproducto de los cerebros que evolucionan para adquirir, almacenar y gestionar el conocimiento adaptativo. La ruta evolutiva específica tomada por diferentes especies está influenciada por limitaciones ecológicas y filogenéticas relacionadas con la riqueza de la ecología (que afecta los beneficios del conocimiento adaptativo), la estructura de apareamiento y el sesgo reproductivo, la efectividad del aprendizaje individual y la fidelidad de transmisión. En nuestra simulación, un conjunto limitado de condiciones conduce a la cultura acumulativa, un tercer régimen de fuerte dependencia del aprendizaje social exclusivo de los humanos. Estas condiciones pueden considerarse un hipótesis acumulativa del cerebro cultural.

Alta fidelidad de transmisión. Al igual que con otros modelos [40,41], nuestra simulación sugiere que la alta fidelidad de transmisión es crucial para la evolución cultural acumulativa. La fidelidad de transmisión se ve afectada por muchos factores, incluida la dificultad de la tarea (las tareas más fáciles se transmiten más fácilmente) las habilidades cognitivas, como la capacidad de simular otras mentes (teoría de la mente [42]), las inclinaciones, como la sobreimitación [43, 44] factores sociales como la tolerancia y la prosocialidad [45,46] e innovaciones culturalmente evolucionadas, como la enseñanza [47,48].

Antepasados ​​inteligentes. Entrar en este régimen de evolución genética impulsada por la evolución cultural acumulativa es más probable cuando el proceso comienza con antepasados ​​que son buenos en el aprendizaje individual. Estos estudiantes asociales desarrollaron un conjunto de conocimientos que vale la pena explotar a través del aprendizaje social. Debido a que no todos los individuos poseen el mismo conocimiento adaptativo en una sola generación, esto puede conducir a un aprendizaje indirecto para aprender de los no padres y sesgos de aprendizaje para seleccionar al individuo con el conocimiento más adaptativo. Por supuesto, tener acceso a más modelos potenciales conduce a una mayor probabilidad de adquirir conocimientos de mayor calidad. Para más información, consulte el material complementario electrónico.

Socialidad. Nuestro modelo corrobora modelos anteriores al revelar una relación causal entre socialidad y complejidad cultural. Esta relación ahora está respaldada por varios experimentos independientes y evidencia de campo convergente (revisada en [12,35]). Las poblaciones más grandes y más interconectadas generan más y más rápida evolución cultural acumulativa.

Estructura de apareamiento, baja inclinación reproductiva. Nuestro modelo sugiere que un sesgo reproductivo bajo, consistente con las estructuras de apareamiento "monogamish", es más probable que conduzca al aprendizaje social y, por lo tanto, a la evolución cultural acumulativa. Varios investigadores han postulado la existencia de antiguas sociedades humanas de reproducción cooperativa (revisadas en [49]) y de vínculos de pareja [12,50], con evidencia de ambos entre los cazadores-recolectores modernos [51].

Este enfoque propone que los cerebros humanos han evolucionado con capacidad y propensión al aprendizaje social selectivo y de alta fidelidad. En un mundo de señales imperfectas del valor adaptativo de la cultura, hay una variedad de estrategias y sesgos que han evolucionado para concentrarse en el conocimiento más adaptativo. Estas estrategias y sesgos incluyen señales directas e indirectas de la popularidad de los rasgos culturales (por ejemplo, sesgo de transmisión conformista [52]), señales directas e indirectas de que un modelo potencial tiene un conocimiento adaptativo que vale la pena aprender (por ejemplo, sesgos de éxito y prestigio [35,53 ]), mecanismos de filtrado para evaluar la precisión de la información y la sinceridad de los modelos (por ejemplo, exhibiciones que mejoran la credibilidad [54]), la relevancia personal de la cultura [55] y los sesgos hacia cierto contenido (por ejemplo, animales peligrosos [56], la comestibilidad de las plantas [ 57], fuego [58] y chismes [59]). Para mayor discusión y revisiones, vea Chudek et al. [25]. Estas estrategias de aprendizaje conectan selectivamente muchos cerebros culturales en cerebros colectivos más grandes.

(b) Conectar cerebros culturales en red en cerebros colectivos

Detrás de las muchas estructuras sociales del cerebro colectivo hay una psicología que apoya tanto las normas sociales como la identificación étnica. Las normas son los estándares de comportamiento compartidos de un grupo y los humanos han desarrollado un conjunto de psicología de la norma inferir y recordar cuáles son estas normas, cuándo, dónde y a quién se aplican (por ejemplo, una norma que rige el uso de las cabañas menstruales por parte de las mujeres), así como cómo se aplican y las consecuencias y reparaciones de las violaciones [46]. Para comprender a quién se aplican las normas, debemos ser capaces de identificar la pertenencia a un grupo. Nuestra especie ha evolucionado psicología-étnica para reconocer e identificar grupos internos y externos, a menudo superpuestos (por ejemplo, españoles y católicos) o integrados (por ejemplo, estadounidenses y neoyorquinos), a los que pertenecen los individuos y a quienes se pueden aplicar conjuntos particulares de normas. Nuestra psicología étnica puede haber evolucionado a partir de una psicología de identificación de parentesco anterior, pero en los seres humanos, las etnias a menudo se delinean mediante marcadores arbitrarios que permiten a los individuos interactuar preferentemente con aquellos que comparten sus normas [60]. En presencia de competencia intergrupal, nuestra psicología étnica puede conducir al favoritismo intragrupal [61]. Nuestra psicología étnica y nuestra psicología de normas juntas nos dicen a qué grupos pertenecemos y el comportamiento esperado dentro de esos grupos.

Una vez que evolucionaron la psicología de la norma y la psicología étnica, los procesos de evolución cultural podrían seleccionar normas adaptativas que apoyen a las instituciones y otras estructuras sociales que resuelven problemas adaptativos. El matrimonio es un buen ejemplo (para más información sobre el matrimonio y otras instituciones, véase [12, cap. 9]). Las normas matrimoniales, además de aliviar los problemas de la incertidumbre paterna (al reducir la infidelidad), pueden vincular a grupos más grandes de personas en relaciones afines (suegros) con las normas correspondientes que rigen las expectativas y responsabilidades ([12, cap. 9] [62]) . Así, a partir de las normas relativas al matrimonio y la familia, la evolución cultural puede crear normas relativas al parentesco extendido y al parentesco, lo que lleva a las comunidades y otras estructuras sociales del cerebro colectivo.

La estructura más básica del cerebro colectivo es la familia. Los jóvenes aprendices culturales primero obtienen acceso a sus padres y posiblemente a una variedad de aloparentales (tías, abuelos, etc.). Las familias están integradas en grupos más grandes, que pueden tomar muchas formas, desde cazadores-recolectores igualitarios hasta aldeas, clanes y sociedades de `` grandes hombres '', desde jefaturas a estados con diferentes grados de democracia, libre mercado y sistemas de bienestar, hasta grandes sindicatos como los Estados Unidos y la Unión Europea (para una discusión sobre la evolución de las sociedades humanas, ver [63,64]). Las normas sociales que gobiernan el parentesco pueden afectar el grado en que estos grupos más pequeños se integran en grupos más grandes. Por ejemplo, más matrimonios externos (exogamia) pueden unir a los antiguos clanes en redes de clanes relacionados, tradicionalmente llamados tribu o grupo etnolingüístico. Otras agrupaciones culturales incluyen amistades y camarillas, grupos religiosos, instituciones formales, castas, gremios y especialización ocupacional. Estos grupos tienen normas y conocimientos especializados correspondientes, y los individuos pueden pertenecer a múltiples grupos. Con el tiempo, las normas y regulaciones dentro de estos grupos e instituciones pueden documentarse formalmente a través de códigos legales y constituciones, creando normas más persistentes y "endurecidas". Así, al igual que las redes neuronales del cerebro biológico, las redes sociales del cerebro colectivo tienen estructuras subyacentes.

Los cerebros colectivos difieren de muchas maneras: tamaño, interconectividad, propiedades de la red, agrupaciones sociales, etc. Como revela la investigación transcultural, los cerebros colectivos también difieren en la psicología de sus cerebros culturales constituyentes. Por ejemplo, algunas sociedades tienen un mayor nivel de xenofobia [65] con posibles implicaciones para la afluencia de ideas de grupos ajenos. Las sociedades también difieren en "rigidez" y "soltura" [66] —su apertura a ideas divergentes— con los consiguientes efectos para la variación cultural [67]. En §3, discutimos cómo surgen y se difunden las innovaciones, así como los factores que afectan la tasa de innovación. Luego discutimos cómo estos mismos factores cambian el cerebro cultural.

3. Innovación en el cerebro colectivo

Hay muchas fuentes potenciales de nuevas ideas y prácticas en el cerebro colectivo y el aprendizaje social selectivo y de alta fidelidad asegura que estas innovaciones se transmitan tanto horizontalmente a toda la población como vertical / oblicuamente de generación en generación. En las poblaciones humanas, la cultura se ha acumulado durante generaciones hasta el punto en que ningún ser humano vivo podría recrear su mundo en una sola vida. Sin embargo, la cultura humana no solo está más allá de la invención individual, sino que tampoco requiere que sus beneficiarios comprendan por qué algo funciona. En algunos casos, como lavarse las manos después de ir al baño o realizar un ritual, quizás sea mejor que las personas no comprendan el mecanismo subyacente [12, cap. 7]! Estas innovaciones se difunden a través de mecanismos de transmisión y selección, pero la pregunta sigue siendo: ¿de dónde provienen estas innovaciones?

Como comentamos, una percepción común de la fuente de la innovación es el "gran hombre" de Carlyle [68] —el pensador, el genio, el gran inventor— cuyas capacidades cognitivas superan con creces al resto de la población, nos llevan a nuevos lugares a través de un esfuerzo mental singular y hercúleo. Pueden pararse sobre los hombros de los grandes del pasado, pero ven más allá debido a su propia percepción individual, su propio genio individual. En §3a, argumentamos que la cultura es profunda y que estos individuos pueden verse como productos de cerebros colectivos, un nexo de ideas previamente aisladas. Primero, discutimos una perspectiva cerebral colectiva sobre las principales fuentes de innovación: serendipia, recombinación y mejora incremental.

Las innovaciones revolucionarias a menudo se basan en la suerte más que en una investigación sistemática y totalmente intencional, es decir. la serendipia proporciona al individuo un vistazo bajo el capó de la naturaleza. Las innovaciones no necesitan una invención intencional o que nadie se "devanará los sesos". Las innovaciones pueden surgir a través de errores en el aprendizaje social o de una transmisión cultural imperfecta (errores al copiar) [39,69]. Aunque no conocemos ningún esfuerzo sistemático para comparar el papel de la serendipia en la innovación, el número de invenciones y descubrimientos importantes debidos a accidentes es impresionante. Estos incluyen teflón, velcro, rayos X, penicilina, vidrio de seguridad, hornos microondas, notas adhesivas, caucho vulcanizado, polietileno y edulcorantes artificiales (para más ejemplos, consulte [70]). El clásico descubrimiento fortuito fue Alexander Fleming, quien descubrió la penicilina después de notar que sus colonias de estafilococos habían sido destruidas por un moho que había entrado por una ventana abierta. A diferencia de su descubrimiento, el de Fleming modo de descubrimiento no fue ni notable ni inusual. La base de los hornos de microondas se descubrió cuando Percy Spencer notó que los microondas de radar habían derretido una barra de chocolate en su bolsillo. El caucho duro y vulcanizado en los neumáticos se descubrió cuando Charles Goodyear accidentalmente puso el caucho en contacto con una estufa caliente y notó que en lugar de derretirse, producía un caucho más robusto. La lista continúa y, sin un análisis sistemático, nos vemos obligados a especular sobre el grado en que la serendipia ha impulsado la innovación a lo largo del tiempo. En cada uno de estos casos, sin embargo, vale la pena señalar que el inventor también tenía la mente preparada para reconocer el descubrimiento incrustado en la observación casual. Goodyear aprovechó la suerte, pero su exposición previa en Roxbury India Rubber Company le había hecho consciente de sus problemas con el caucho [71]. Con la exposición cultural adecuada, el error de una persona es el descubrimiento fortuito de otra.

La recombinación cultural, donde diferentes elementos de la cultura se recombinan de nuevas formas, da la apariencia de un genio innato, pero es todo lo contrario: las nuevas ideas nacen en el nexo social donde se encuentran ideas previamente aisladas. Los modelos teóricos han demostrado la forma en que la recombinación puede generar innovaciones [41,72]. En el registro histórico, la controversia rodea la atribución de muchos de los mayores descubrimientos científicos, porque fueron descubiertos por varias personas aproximadamente al mismo tiempo. Ejemplos destacados incluyen la teoría de la evolución por selección natural de Darwin y Wallace, el oxígeno de Scheele, Priestley y Lavoisier, y el cálculo de Newton y Leibniz. Aunque la teoría predice que la recombinación es crucial para la innovación y vemos que la recombinación impulsa la innovación en experimentos de laboratorio [35], en ausencia de análisis sistemáticos de un conjunto aleatorio de innovaciones, nos vemos obligados nuevamente a confiar en estudios de casos. Las instancias que mencionamos representan algunas instancias de cientos [73]. Cuando miramos a través de todo el tiempo, puede parecer sorprendente que estos descubrimientos e invenciones surgieran tan cerca en el tiempo, pero esto es consistente con innovación como recombinación. Los innovadores potenciales, expuestos a los mismos elementos culturales, llegan a los mismos descubrimientos, en sus propias mentes, de forma independiente, pero desde la perspectiva del cerebro colectivo, estas ideas se están difundiendo y eventualmente se encontrarán, a menos que se olviden primero. Ambos co-descubridores del principio de selección natural habían leído los ensayos de Thomas Malthus y los de Robert Chambers. Vestigios de la historia natural de la creación, y ambos habían viajado extensamente entre diversas islas a través de los archipiélagos [74]. En la mayoría de los casos, carecemos de los datos adecuados para rastrear los elementos culturales compartidos que llevaron a cada descubrimiento.

Hay muchos ejemplos en los que las 'nuevas' invenciones son más claramente el producto de mejoras incrementales, recombinaciones de elementos existentes y selección, el 'inventor' es en realidad solo el divulgador (lo que también habla de nuestra necesidad de identificar al Gran Hombre responsable [68]). . 1 Estos "inventores" se encuentran en una montaña de inventos similares. Por ejemplo, aunque a menudo se les atribuye a Edison y Swan la invención de la bombilla, hubo al menos 22 inventores de bombillas incandescentes antes de las modificaciones de Ediswan y el éxito comercial [75]. De manera similar, aunque Gutenberg hizo algunas mejoras en la imprenta, su contribución real fue popularizar las técnicas y tecnologías disponibles en ese momento [76]. Otros inventos que cambiaron el mundo, incluida la máquina de vapor [77], el automóvil [78], el teléfono [79] y el avión [80], fueron mejoras graduales y una combinación de avances anteriores, con descubrimientos accidentales y controversias sobre quién vino primero. Una vez más, nos hemos basado en ejemplos y se necesitan más esfuerzos cuantitativos.

Varias otras líneas de evidencia apuntan a un papel crucial de la recombinación, la mejora incremental y la selección en la innovación. Un método que ha resultado útil ha sido la aplicación de análisis filogenéticos a los elementos constitutivos de una tecnología. Estos análisis, que se han aplicado tanto a radios portátiles [81] como a bicicletas [82], revelan claramente cómo los componentes constituyentes en una diversidad de diseños se han recombinado en los productos que vemos hoy. El apoyo indirecto a la noción de innovación como el encuentro de ideas, prácticas y entendimientos previamente aislados, proviene de datos psicológicos. Por ejemplo, Maddux et al. [83] muestran que las personas con experiencias multiculturales son más capaces de conectar conceptos o palabras aparentemente desconectados (por ejemplo, "modales", "ronda" y "tenis" están conectados por la palabra "mesa") y superar la fijación funcional (ver el potencial de un objeto usos limitados a sus usos tradicionales o diseñados) [83]. Finalmente, la evidencia experimental de un experimento de transmisión cultural muestra que cuando se les da acceso a múltiples modelos, los individuos aprenden selectivamente de los más exitosos, pero también recombinan el conocimiento de los siguientes modelos más exitosos, lo que lleva a mejores resultados que aquellos que no tuvieron acceso a muchos. modelos [35].

A nivel individual, una perspectiva cerebral colectiva sugiere que la innovación individual se beneficia de la exposición a una amplia gama de ideas, creencias, valores, modelos mentales, etc. Esto es parte de lo que crea una "mente preparada". Einstein, por ejemplo, estuvo expuesto a muchas ideas trabajando en una oficina de patentes. Gran parte de su trabajo se relacionó con la evaluación de patentes de dispositivos eléctricos, incluidos los relacionados con la sincronización del tiempo, que aparecieron posteriormente en sus experimentos mentales. Einstein cultivó una amplia red, viajando regularmente y entablando amistades con los principales científicos de su época [84]. A nivel del cerebro colectivo, hay muchos factores que afectan la tasa general de innovación y difusión. La tasa de innovación no ha sido idéntica en todas las sociedades [85] y parece haber estado aumentando en los últimos tiempos [86,87], como cabría esperar si la innovación está impulsada por la recombinación. Comprender el cerebro colectivo nos permite identificar los factores que afectan la tasa de innovación.

(a) Aumento de las tasas de innovación

Hasta ahora, hemos delineado muchos de los procesos que generan y transmiten innovaciones dentro de nuestro cerebro colectivo. Estos se pueden destilar en una ontología que capture los factores que afectan la tasa de innovación. Un punto de partida útil es un modelo temprano de Henrich [69] que intentó explicar la relación entre la sociabilidad y la complejidad cultural: por qué poblaciones más grandes y más interconectadas tienen una cultura más compleja y, como corolario, por qué los aumentos en la sociabilidad se asocian con una mayor innovación. La lógica se refleja en la figura 2. El enfoque asume que cuando se elige un modelo cultural, basado en señales vinculadas al éxito o la habilidad, la mayoría de los estudiantes no alcanzarán el nivel de habilidad (zI) que posee el modelo, la transmisión promedio es propensa a errores y la mayor parte de la distribución está por debajo del nivel de habilidad del modelo elegido. El gráfico, como se muestra en la figura 2, implica una relación entre el número de modelos a los que tienen acceso los individuos y la complejidad media de la cultura que la población puede mantener. Sin profundizar en las matemáticas, considere lo que sucedería si aumentamos o disminuimos la cantidad de modelos accesibles. Suponiendo que los individuos siempre seleccionan el modelo más hábil, con acceso a más modelos, existe una mayor probabilidad de que al menos un modelo tenga un nivel de habilidad en la cola derecha y un alumno pueda seleccionar un modelo con por lo menos habilidad zI. Durante varias generaciones, existe un valor de habilidad de equilibrio que se puede mantener para acceder a un número particular de modelos (es decir, el número de individuos necesarios para poder acceder de manera consistente a un modelo con valor de habilidad zI). Así, el primer factor que incide en la tasa de innovación es socialidad.

Figura 2. Distribución de probabilidad de Gumbel de transmisión imperfecta, basada en Henrich [69]. Los análisis de Kobayashi y Aoki [88] confirman que esta lógica no es específica de la distribución elegida por Henrich. Por un valor de habilidad dado zI, la probabilidad de adquirir una habilidad de menor nivel (la porción de la distribución a la izquierda de la línea discontinua) es menor que la probabilidad de adquirir un nivel de habilidad igual o mayor (la porción de la distribución a la derecha de la línea discontinua) : el aprendizaje es propenso a errores. A medida que aumenta la sociabilidad y el acceso a los modelos culturales (por ejemplo, a través del aumento del tamaño o la densidad de la población), existe una mayor probabilidad de que al menos un alumno posea un nivel de habilidad zI o más y convertirse en el modelo cultural más hábil del que aprende la próxima generación. Estos supuestos y la lógica predicen una relación entre la sociabilidad y la complejidad cultural de equilibrio.

El siguiente factor que consideraremos es la diferencia entre la habilidad modelo y la media de las habilidades del alumno, que se muestra como α en la figura 2. El α el parámetro representa fidelidad de transmisión. Mayor fidelidad de transmisión (menor α) aumenta la complejidad cultural media. Finalmente, el β El parámetro representa la varianza de la distribución, la variedad de inferencias y resultados culturales. Nos referiremos a esto como variación de transmisión. Mayor variación de transmisión (mayor β) también puede aumentar la complejidad cultural media (así como el número de errores). Hay muchos factores que aumentan y disminuyen la socialidad, la fidelidad de transmisión y la varianza de la transmisión, y a su vez aumentan y disminuyen el nivel de innovación. Consideremos ahora algunos.

Hay varias líneas de evidencia que vinculan la socialidad con la complejidad e innovación cultural. Por ejemplo, Kline & amp Boyd [33] muestran que tanto el tamaño de la población como la interconexión de las islas se correlacionan con el número de herramientas y la complejidad de las herramientas entre las islas oceánicas. Carlino et al. [89] muestran que la densidad urbana (un proxy de la interconectividad) predice la tasa de innovación. Del mismo modo, Bettencourt et al. [90] miden la relación entre la población de las ciudades y el número de nuevas patentes, el número de inventores y diversas medidas de investigación y desarrollo. Todas escalan exponencialmente, con un exponente de la ley de potencia mayor que 1, lo que sugiere ganancias aceleradas a medida que aumenta el tamaño de la población, exactamente lo que uno esperaría si la recombinación fuera la principal responsable de la innovación. Estos resultados son consistentes con otras evidencias arqueológicas, etnográficas y etnohistóricas (ver [35]).

En el laboratorio, tres conjuntos independientes de experimentos [35-37] probaron la relación entre la sociabilidad y la complejidad cultural. 2 Juntos, estos experimentos revelan que para tareas suficientemente complejas, la habilidad y el conocimiento se acumulan durante generaciones cuando los participantes tienen acceso a más modelos y que, si bien la transmisión sesgada hacia el éxito es suficiente para impulsar el efecto, cuando es posible, los participantes también recombinan información de múltiples modelos. Muthukrishna et al. [35] también probó el efecto de la pérdida de sociabilidad comenzando con una generación de expertos. Confirmando las predicciones teóricas, con acceso a menos modelos, el nivel de habilidad se redujo más rápidamente y alcanzó un equilibrio más bajo.

Con aumentos en el tamaño de la población y aumentos en la interconectividad, gracias a la alfabetización, la radio, la televisión y, más recientemente, Internet, ahora deberíamos estar experimentando una tasa sin precedentes de innovación y adopción. De hecho, esto es lo que vemos. Los análisis de la difusión de tecnologías en 166 países durante los últimos 200 años sugieren que las tasas de adopción han ido en aumento [86]. Los análisis de la innovación dentro de las técnicas quirúrgicas, medidos por patentes y publicaciones durante los últimos 30 años, muestran un aumento exponencial de las innovaciones [87]. Se requiere más investigación para comprender qué implican estos asombrosos incrementos en la socialidad para la tasa de innovación. Para comprender mejor el origen de estas relaciones, la investigación futura debe integrar (o recombinar) el creciente cuerpo de investigación sobre las redes sociales con la evolución cultural. Es dentro de estas redes donde los individuos seleccionan modelos culturales y a través de estos vínculos se transmiten las innovaciones.

- Más tolerancia social y prosocialidad: modelos que se hacen más accesibles o son mejores profesores [47,48,91].

- Acceso a más modelos que demuestren variaciones en prácticas y habilidades [35].

- Un período juvenil extendido y / o una vida útil más larga, lo que brinda a los estudiantes con más cerebros plásticos más tiempo para aprender.

- Mejores habilidades de aprendizaje, como una mejor capacidad para representar y predecir los estados mentales de los demás (mejor teoría de la mente).

- Técnicas y habilidades previamente aprendidas que facilitan el aprendizaje en sí mismo (por ejemplo, mnemotécnica, habilidades de estudio) o facilitan la adquisición de nuevas habilidades (por ejemplo, las matemáticas discretas pueden facilitar la programación o la teoría de juegos).

- Finalmente, el contenido en sí puede simplificarse con el tiempo, con pasos o técnicas de fabricación más fáciles de recordar, aumentando así la fidelidad de transmisión [92,93]. La evolución de mejores modos de transmisión, como el lenguaje hablado más recientemente, el lenguaje escrito y más recientemente aún, las tecnologías de transmisión como la imprenta, la televisión e Internet, también han sido una bendición para la fidelidad de la transmisión.

En el modelo de Henrich [69], la variación de transmisión se refiere a la variación en las inferencias al copiar habilidades, pero la lógica se aplica a la variación cultural de manera más general. Al igual que ocurre con las mutaciones genéticas, una mayor variación suele dar lugar a errores más perjudiciales (hay más formas de romper algo que de hacer que funcione), pero siempre que existan sesgos de selección sobre de quién aprender, los pocos errores fortuitos valen la pena. la población. Hay muchos factores que afectan la variación de la transmisión. Estos incluyen (i) diferencias psicológicas transculturales en la aceptación de la desviación, la tendencia a la desviación y el exceso de confianza y (ii) diferencias institucionales en las políticas que fomentan y desalientan la desviación y la asunción de riesgos. La investigación en las ciencias psicológicas ha identificado diferencias culturales en "rigidez" (normas sociales fuertes y baja tolerancia a la conducta desviada) y "laxitud" (normas sociales débiles y alta tolerancia a la conducta desviada) [94]. Una medida de rigidez y soltura es la desviación estándar en valores y creencias. En 68 países, una desviación estándar mayor se correlaciona con más innovación [67]. Por el contrario, una mayor rigidez se asocia con una innovación más incremental que radical [66]. Una diferencia intercultural relacionada es la independencia (o individualismo) y la interdependencia (o colectivismo), que pueden evolucionar por razones que poco tienen que ver con la innovación. Acemoglu et al. [95] se centran en la calidad u originalidad de las innovaciones (por ejemplo, el número de citas por patente), más que en el número de innovaciones. Encuentran que el individualismo, la menor evitación de la incertidumbre y los gerentes más jóvenes (todos asociados con una mayor varianza) conducen a innovaciones más originales y de mayor calidad (véase también [96]).

Los economistas suelen asumir que los incentivos materiales impulsan a los innovadores y, por lo tanto, a las innovaciones. Sin embargo, desde nuestro punto de vista, la recombinación y las mejoras incrementales son fundamentales para la innovación y las patentes también pueden sofocar estos procesos al inhibir el flujo de información a través de las mentes individuales, en lugar de incentivar el secreto. De acuerdo con esto, los análisis históricos de las leyes de patentes de Moser [97] y los análisis recientes de las patentes de genes humanos de Williams [98] sugieren que las leyes de patentes a menudo pueden ser demasiado estrictas, lo que reduce la innovación, pero esto no significa que ninguna patente conduciría a más innovación. Con base en datos sobre patentes farmacéuticas en 92 países entre 1978 y 1992, Qian [99] argumenta que puede haber un nivel óptimo de protección, después del cual la innovación se sofoca. Incrementar la innovación consiste en potenciar el cerebro colectivo.

Por otro lado, la reducción de los costos del fracaso mediante la creación de una red de seguridad puede influir en la innovación a través de múltiples canales, incluso al permitir que las personas inviertan en lazos sociales más amplios (expandiendo el cerebro colectivo) sobre los lazos de parentesco y aumentando el espíritu empresarial directamente. Esta relación está respaldada por análisis de la antigua ley de pobres de Inglaterra [100], leyes de quiebras más indulgentes en 15 países [101], seguro de desempleo en Francia [102] y en los Estados Unidos, la introducción de cupones de alimentos [103], seguro médico para los niños [104] y el acceso a un seguro médico separado del empleo [105], todo lo cual aumentó el espíritu empresarial. Por supuesto, existe una cantidad óptima de seguro social vis-à-vis innovación, porque una mayor financiación de tales programas puede aumentar la carga fiscal; algunos datos sugieren que los impuestos corporativos más altos pueden conducir a un menor espíritu empresarial [106,107]. En general, las redes de seguridad social impulsan la innovación porque permiten que las personas se interconecten en redes más amplias y ricas.

Aunque hemos discutido la socialidad, la fidelidad a la transmisión y la varianza de la transmisión por separado, están interrelacionadas. Por ejemplo, la sociabilidad puede tener poco efecto si una tarea es demasiado simple y, por lo tanto, la fidelidad de transmisión es muy alta [36] o el aprendizaje individual domina las soluciones. De manera similar, la investigación teórica y experimental con estructuras de redes sociales [108-111] sugiere que demasiada interconectividad puede disminuir la varianza. La compensación es entre la interconectividad que aumenta la probabilidad de recombinaciones útiles en el espacio dimensional increíblemente alto de combinaciones culturales y las reducciones en la varianza causadas por nuestros sesgos selectivos que se aplican a grandes porciones de la población. Estos resultados y la perspectiva del cerebro colectivo sugieren una cantidad óptima de interconectividad. Sin embargo, debido a que las redes sociales reales son mucho menos densas que las redes de laboratorio y estamos lejos de ser una red completamente conectada, la sociedad humana probablemente continuará beneficiándose de los aumentos en la interconectividad (es decir, todavía estamos en la pendiente positiva). Además, la variación es introducida por otros factores, como errores en la transmisión y diferencias individuales en el aprendizaje social y sesgos conformistas (por ejemplo, los individuos con un CI más alto pueden ser menos conformistas [52]). Finalmente, los mismos principios que llevan a poblaciones más grandes que poseen tecnologías más complejas [33] también pueden moldear y perfeccionar los mecanismos de transmisión cultural, como la pedagogía y el lenguaje.

Varios modelos formales han demostrado cómo la evolución cultural puede crecer, perfeccionar y optimizar los lenguajes de una manera análoga a cómo la evolución cultural da forma a los conjuntos de herramientas [12]. Pero a diferencia de la mayoría de las herramientas, los cambios en los lenguajes pueden mejorar drásticamente la eficiencia de los cerebros colectivos, al igual que la mielinización puede hacer que las vías neuronales sean más eficientes que la ontogenia. Hay muchas formas en que la evolución cultural puede optimizar o hacer que los idiomas sean más útiles. Estos incluyen vocabularios más amplios [112,113], inventarios fonémicos más grandes, más herramientas gramaticales [12] y morfologías sintácticas más aptas para el aprendizaje [114]. Paralelamente a la relación entre la población y el tamaño del conjunto de herramientas [33,69], Bromham et al.El análisis [113] de las lenguas polinesias revela que a medida que las poblaciones crecen, es más probable que obtengan nuevas palabras y menos probabilidades de perder las existentes. De hecho, el estadounidense promedio tiene un vocabulario aproximadamente en un orden de magnitud mayor que su contraparte en una sociedad en pequeña escala [112]. En el laboratorio, así como los pasos de fabricación se vuelven más eficientes en los experimentos de transmisión tecnológica [92], los experimentos de transmisión de lenguaje artificial revelan que a lo largo de generaciones, estos lenguajes cambian estructuralmente para volverse más fáciles de aprender [115]. Paralelamente a esto en el mundo real, Lupyan & amp Dale [114] muestran que las lenguas con más hablantes tienen una morfología flexional más fácil de aprender por los adultos, quizás debido a un mayor número de hablantes adultos de una segunda lengua. Sin embargo, una mayor capacidad de aprendizaje no implica necesariamente una transmisión de información más eficiente. Aquí, empujamos esta línea de pensamiento aún más lejos para examinar si los idiomas con comunidades de habla más grandes tienen una mayor eficiencia comunicativa.

Una forma en que los idiomas pueden transmitir información de manera más eficiente es optimizando la longitud de las palabras según el contenido de la información. Es decir, al reducir las palabras con menos información y, por lo tanto, aumentar la correlación entre la longitud de la palabra y el contenido de la información, la tasa de información por unidad de tiempo es más constante, lo que da como resultado una comunicación "más fluida". Piantadosi et al. [116] mida esto utilizando los conjuntos de datos de Google de las 25 000 cadenas más utilizadas para cada uno de los 11 idiomas europeos, calculando el contenido de información para cada palabra. Intuitivamente, la información puede considerarse como predictibilidad, en este caso, el grado en el que la palabra puede predecirse basándose en el contexto anterior [117]. Por ejemplo, en la oración "Cuando llueve, traigo mi -", "paraguas" tiene mucha menos información que "escopeta", porque se puede predecir "paraguas" basándose en las palabras anteriores. Formalmente, Piantadosi et al. [116] estimar el contenido de información promedio de una palabra W = w en contexto C = C utilizando

La correlación entre el registro del número de hablantes 3 (datos de Ethnologue [118]) y el grado de optimización [116] es sustancial: r = 0.83, pag = 0,002, con un IC del 95% (bootstrap) que va desde r = 0,57 a 0,95. Por supuesto, estos idiomas están relacionados y, por lo tanto, no son estadísticamente independientes. Para controlar la relación lingüística, utilizamos el árbol de lenguas indoeuropeas (de [119]) para calcular los contrastes independientes para el registro del número de hablantes y el grado de optimización utilizando el Foto función en el paquete R mono [120]. Luego ajustamos un modelo lineal usando estos contrastes (dejando fuera el término de intersección). La correlación entre contrastes es r = 0.77, pag = 0,005, con un IC del 95% (bootstrap) que va desde r = 0,50 a 0,91. Estos resultados preliminares son consistentes con una hipótesis del cerebro colectivo, aunque enfatizamos que es necesaria una investigación mucho más extensa (y esto está actualmente en proceso de figura 3). 4

Figura 3. Relación entre el número de hablantes contemporáneos de un idioma y el grado en que se han optimizado las longitudes de las palabras para la comunicación. El eje horizontal es una escala logarítmica. El eje vertical es la correlación entre el contenido de información de las palabras y su longitud escrita que se hace positiva para facilitar la interpretación. (Versión online en color).

Además del lenguaje, la evolución cultural también puede sintonizar las estructuras del cerebro colectivo y los factores que afectan la socialidad, la fidelidad de transmisión y la variación de transmisión.Esta sintonía puede compensar un problema que Mesoudi [121] discute, según el cual a medida que aumenta la complejidad cultural, es más difícil para cada generación adquirir el creciente y más complejo cuerpo de conocimiento adaptativo. De acuerdo con esta sintonía, las sociedades a gran escala, con tecnologías más complejas, se involucran en más enseñanza que las sociedades a pequeña escala [48,122], aumentando así la fidelidad de transmisión a medida que aumenta la complejidad cultural. También hay alguna evidencia de aumentos en la división del trabajo (mayor especialización), con más comercio internacional y más subcontratación nacional de tareas (es decir, menos integración vertical de todos los aspectos de una empresa) [123,124]. A pesar de estos aumentos en la pedagogía y la especialización, nuestro "período juvenil extendido" se ha ampliado aún más con el retraso en la edad del primer hijo [125] y una educación formal más prolongada [126]. Finalmente, los estadounidenses continúan expandiendo su vocabulario a lo largo de su vida adulta, lo que ha ampliado la diferencia en los coeficientes intelectuales verbales entre los adolescentes y sus padres en relación con las generaciones anteriores, donde los vocabularios se expandieron poco después de mediados de los veinte.

En resumen, la socialidad, la fidelidad de transmisión y la varianza de transmisión varían entre poblaciones y están sujetas a la evolución cultural a lo largo de una variedad de dimensiones. Con el tiempo, una mayor competencia entre grupos puede favorecer a las instituciones, como las redes de seguridad social, que generan innovaciones. Estos factores afectan las muchas formas en que surgen las innovaciones, como la exposición a más ideas (a través de modelos culturales anteriores a las tecnologías de comunicación de masas), errores en la transmisión y la serendipia a través de la manipulación. Si estos procesos son los mecanismos primarios a través de los cuales surgen las innovaciones, ayudaría a explicar la prevalencia de controversias de tipo Newton-Liebniz y Darwin-Wallace. Sin embargo, en una población de millones, fueron solo Newton y Liebniz quienes descubrieron el cálculo, solo Darwin y Wallace quienes desarrollaron la teoría de la evolución por selección natural, solo un puñado de personas que realmente inventaron cada tecnología. ¿Realmente el cerebro colectivo relega al innovador específico a un nodo fungible en un nexo en la red social? ¿Las habilidades cognitivas, como el coeficiente intelectual o la función ejecutiva, realmente no juegan ningún papel?

4. El cerebro colectivo alimenta el cerebro cultural

Como hemos comentado, las innovaciones ocurren en el nexo donde las ideas se encuentran. Por lo tanto, ceteris paribus, deberían producirse más innovaciones en cerebros colectivos más grandes y más interconectados [33,89,90] y entre individuos con acceso a más y diversa información [83]. Pero, ¿qué pasa con las diferencias entre cerebros culturales? Seguramente, las personas difieren en las habilidades cognitivas y las inclinaciones que afectan su capacidad para innovar. ¿Es realmente insostenible la idea de innovación impulsada por grandes genios del pensamiento? En esta sección, argumentamos que los cerebros colectivos hacen que sus cerebros culturales constituyentes sean más capacitados cognitivamente para sobrevivir en el entorno local y sean más capaces de resolver problemas novedosos, utilizando un repertorio más amplio de habilidades acumuladas. A menudo se asume que la inteligencia es la base de las diferencias individuales y poblacionales en creatividad e innovación ([127-131] para una discusión más detallada, ver material complementario electrónico). Si bien, en principio, la inteligencia puede aumentar la fidelidad de transmisión, la inteligencia (medida por el coeficiente intelectual) solo se correlaciona débilmente con la innovación (medida por la creatividad), r = 0,20, y en el mejor de los casos es una condición necesaria, pero no suficiente, para la creatividad [128]. Con base en los argumentos esbozados en §3a, deberíamos esperar que el cerebro colectivo pueda hacer que los cerebros culturales sean más inteligentes mediante una combinación de exposición a más ideas (socialidad), mejor aprendizaje (fidelidad de transmisión) y disposición a desviarse (variación de transmisión). De estos tres factores, la exposición a más ideas es una condición necesaria, porque una mayor fidelidad por sí misma estaría asociada solo con mejoras incrementales y una mayor variación de transmisión por sí misma estaría asociada con más ideas, la mayoría de las cuales serían malas. De acuerdo con esto, los individuos multiculturales muestran más creatividad [83], al igual que los individuos con mayor apertura a nuevas experiencias (pero no los otros cinco rasgos de personalidad principales) [132]. La apertura predijo consistentemente varias medidas de creatividad, tamaños de efecto que van desde β = 0,25 a 0,66, excepto la creatividad en matemáticas y ciencias, que puede requerir más conocimientos de dominio. No obstante, para ilustrar nuestro punto sobre las habilidades psicológicas especializadas, abordaremos la suposición común de que el coeficiente intelectual conduce a ideas innovadoras al mostrar cómo el cerebro colectivo puede aumentar el coeficiente intelectual de los cerebros culturales.

- El coeficiente intelectual es un buen predictor del rendimiento escolar y laboral, al menos en sociedades EXTRAÑAS.

- El coeficiente intelectual difiere en el poder predictivo y es el menos predictivo del desempeño en tareas que exigen poca habilidad cognitiva (los trabajos se clasificaron según el "procesamiento de la información", ver [134]).

- El coeficiente intelectual puede separarse en inteligencia cristalizada y fluida. La inteligencia cristalizada se refiere al conocimiento que se utiliza para resolver problemas y la inteligencia fluida se refiere a la capacidad de resolver problemas nuevos y de aprender.

- El CI parece ser heredable, pero las puntuaciones de heredabilidad pueden ser más débiles para el nivel socioeconómico bajo (NSE), al menos en los EE. UU.

- Las intervenciones educativas pueden mejorar el coeficiente intelectual, incluida la inteligencia fluida, que se ve afectada por intervenciones, como el entrenamiento de la memoria.

- Los puntajes de las pruebas de CI han aumentado drásticamente con el tiempo (efecto Flynn) y este es el mayor para las naciones que se han modernizado recientemente. Se han medido grandes ganancias en la prueba de Raven supuestamente "libre de cultura", una prueba que mide la inteligencia fluida.

- Las diferencias de coeficiente intelectual tienen correlatos neuronales.

- Las poblaciones y las etnias difieren en el rendimiento del coeficiente intelectual.

La comprensión de los cerebros culturales y colectivos nos permite dar sentido a estos hallazgos, que de otro modo serían desconcertantes. Antes de abordar cada punto, aquí está la afirmación más amplia y actualmente controvertida: para una especie tan dependiente del conocimiento acumulado, no solo es la idea de un coeficiente intelectual "libre de cultura". prueba sin sentido, sino también la idea de "libre de cultura" Coeficiente intelectual [135]. Nuestra inteligencia se adquiere sustancialmente culturalmente de maneras que alteran tanto nuestro cerebro como nuestra biología, y no pueden medirse o entenderse de manera significativa independientemente de la cultura.

Sostenemos que el coeficiente intelectual es predictivo del desempeño en la escuela y el trabajo en sociedades EXTRAÑAS, porque el coeficiente intelectual mide las habilidades que son útiles en la escuela y el trabajo en estas sociedades. La cultura es profunda y no solo las medidas obvias de competencia cultural (por ejemplo, la capacidad verbal) son una medida de las habilidades adquiridas culturalmente, sino que también son medidas menos obvias, como la prueba de Raven. Se requieren análisis más exhaustivos para justificar plenamente esta perspectiva. Aquí esperamos inspirar el trabajo futuro al exponer lo que esta perspectiva implica para el coeficiente intelectual junto con la evidencia que existe. La diferencia entre la inteligencia cristalizada y la fluida es la diferencia entre el conocimiento explícito y los estilos de pensamiento implícitos, los cuales varían entre sociedades [136]. Ampliaremos esto en §4a. Por esta razón, las medidas cristalizadas son más predictivas del rendimiento escolar que las medidas fluidas [137], y el CI es un predictor más débil del rendimiento para trabajos que no requieren las habilidades medidas por pruebas de CI. Además, predeciríamos que las pruebas de coeficiente intelectual serían menos predictivas del rendimiento en dominios valorados localmente en entornos no industrializados, como muchas sociedades de pequeña escala.

Las medidas de CI parecen ser heredables, pero entre los niveles socioeconómicos más bajos, la heredabilidad es menor, aunque este hallazgo es inconsistente. El cerebro colectivo predeciría que el coeficiente intelectual es más consistente de generación en generación cuando los niños tienen una probabilidad similar de adquirir tanto conocimiento adaptativo como sus padres. Esto es muy variable, pero más estable entre aquellos con un NSE alto. En contraste, hay más variabilidad (y por lo tanto más predictores potenciales) entre aquellos con bajo NSE. Si la exposición al conocimiento afecta el coeficiente intelectual, esto no es sorprendente. Tampoco es sorprendente que los intentos deliberados de transmitir información (educación formal) mejoren el coeficiente intelectual, al igual que los intentos deliberados de mejorar el pensamiento en sí (como las técnicas de memoria). Estos efectos pueden ser importantes.

Brinch & amp Galloway [138] midieron el efecto sobre el coeficiente intelectual de una reforma educativa noruega que aumentó la escolaridad obligatoria de 7 a 9 años. Sus análisis de este experimento natural estimaron un aumento de 3.7 puntos de CI por año adicional de educación. Debido a que este cambio solo afectó la educación de los adolescentes, es probable que esté subestimando el efecto general de la educación sobre el coeficiente intelectual. En otro posible experimento natural, Davis [139] probó el coeficiente intelectual de Tsimane, un grupo de horticultores-recolectores indígenas de Bolivia. Algunas aldeas tenían educación formal y otras no. Los niños y adolescentes con acceso a la educación mostraron un fuerte efecto lineal de la edad en la puntuación de CI (R 2 = 0,519), en comparación con ningún efecto de la edad en aquellos sin acceso a la educación (R 2 = 0,008). Estos resultados sugieren que el coeficiente intelectual aumenta con la edad no debido a la maduración, sino a las influencias de una institución cultural EXTRAÑA en particular: la educación formal. Esto también sugiere que a lo largo de la mayor parte de la historia de la humanidad, el coeficiente intelectual no aumentó con la edad. Además, sugiere un papel causal de la educación en el crecimiento económico (ver [140]). Aunque se necesita más evidencia para eliminar posibles terceras variables, la evidencia hasta ahora es consistente con una hipótesis del cerebro colectivo.

Según nuestra opinión, el coeficiente intelectual es una medida del acceso al acervo de conocimientos, técnicas, herramientas, trucos, etc. de una población, que mejoran las habilidades, destrezas y formas de pensar importantes para el éxito en un mundo EXTRAÑO. Las pruebas de CI son útiles como medida de la competencia cultural, que puede requerir un aprendizaje cultural (y puede haber diferencias en esto), pero no como una prueba universal de "inteligencia" como una capacidad abstracta generalizada de resolución de problemas. El efecto Flynn (para metanálisis recientes, véase [141,142]) describe el aumento constante del coeficiente intelectual medio desde que se desarrollaron las pruebas de coeficiente intelectual, aproximadamente tres puntos por década. Si se toma al pie de la letra, el efecto Flynn hace que grandes proporciones de generaciones anteriores sean apenas funcionales, pero según esta explicación, el efecto Flynn se convierte en una medida de una mayor complejidad cultural media. Esta perspectiva está respaldada por datos que muestran que las diferencias de coeficiente intelectual están estrechamente relacionadas con el desarrollo económico [143]. Dicho de otra manera, los promedios nacionales de CI son exactamente lo que uno esperaría si el CI fuera una medida del desarrollo "una posible interpretación de los resultados ... es que el CI nacional es simplemente otro indicador de desarrollo" (p. 95). Comprender el cerebro colectivo nos brinda las herramientas que necesitamos para comprender la variación que vemos en el efecto Flynn. Al igual que con otras medidas de complejidad cultural y eficiencia lingüística, estas diferencias deben rastrear los cambios en el tamaño de la población, la interconectividad, la fidelidad de transmisión (por ejemplo, educación formal), así como la introducción de estilos específicos de pensamiento (por ejemplo, analítico versus holístico).

Las poblaciones difieren en el coeficiente intelectual, lo que también es motivo de mucha controversia, y estas diferencias se correlacionan con diversas medidas de desarrollo económico y social [127]. Aunque algunos [127,129-131] han defendido una relación causal entre el coeficiente intelectual y el desarrollo, la teoría y la evidencia que hemos presentado hasta ahora sugieren la dirección causal opuesta. La socialidad (el tamaño y la interconexión de una población) conduce a una mayor complejidad cultural. El aumento de la complejidad cultural, a su vez, fortalece los cerebros culturales al darles acceso a una gama más amplia de información, incluidas herramientas físicas, cognitivas y lingüísticas, que pueden recombinarse de nuevas formas, generando nuevas innovaciones.

Todo esto no quiere decir que las diferencias cognitivas individuales no sean importantes para la invención y la innovación, solo que estas diferencias, como la innovación, son una propiedad emergente del cerebro colectivo y que el enfoque en el coeficiente intelectual, el genio y otras diferencias individuales, como la fuente de innovación han pasado por alto los procesos cerebrales colectivos más amplios que explican las diferencias dentro del grupo y entre grupos. Dentro de las poblaciones, las diferencias individuales en genes, nutrición, etc. pueden predecir diferencias en la capacidad cognitiva, pero es difícil separarlas del acceso a diferentes modelos y el acceso a diferentes elementos culturales. En general, la hipótesis del cerebro colectivo sugiere que no solo es mejor ser social que tener una inteligencia bruta, sino que la inteligencia se aplica al éxito en su entorno local. exigir que seas social. Las amplias estructuras del cerebro colectivo afectan la inteligencia de sus cerebros culturales constituyentes. También puede hacerlo el contenido real que se transmite dentro del colectivo.

(a) La cultura afecta a la cultura: restringiendo y abriendo espacios de pensamiento

Que los aspectos de la cultura deberían afectar a otros aspectos de la cultura es obvio y no controvertido, al menos a nivel de población. Por ejemplo, los cambios en la eficiencia del lenguaje afectan la velocidad a la que se puede transmitir la información. Invenciones como la imprenta, la televisión e Internet y prácticas como la lectura y la educación formal cambian la fidelidad y el alcance de la transmisión. Se han presentado argumentos más controvertidos sobre cómo algunas instituciones pueden influir en la evolución cultural posterior, como el matrimonio monógamo que favorece una menor fecundidad y una mayor igualdad de género [144]. Lo que es menos obvio son las formas en que los elementos culturales afectan a otros elementos culturales dentro de los cerebros individuales. Aún menos obvio es cómo podemos entender estas interacciones.

Adquirir algunas habilidades y conocimientos puede hacer que otras habilidades y conocimientos sean más obvios, naturales o más fáciles de adquirir; vivir en un país que conduce por el lado izquierdo o derecho de la carretera puede afectar si se siente más natural caminar por el lado izquierdo o derecho al pasar personas (¡lo que provoca el caos en los aeropuertos!). La importancia de esto se puede poner de relieve al observar a nuestros primos más cercanos. Gruber et al. [145] ejecutó una nueva tarea de extracción de miel con miel almacenada en troncos con agujeros perforados en el costado. Los chimpancés de las comunidades con tecnología de varilla de inmersión fabricaban varillas de forma espontánea para extraer la miel. Aquellos de comunidades sin ninguna tecnología de varilla de inmersión no tuvieron éxito. En un estudio de seguimiento, Gruber et al. [146] trató de facilitarlo, dejando en las inmediaciones un palo ya fabricado e incluso dejándolo ya colocado en el agujero. Aun así, aquellos de comunidades sin la tecnología de varilla de inmersión ignoraron o incluso descartaron la varilla a pesar de que ya estaba colocada en el agujero.

Tales estudios de cómo la exposición a ideas previas afecta la creación de otras ideas no se han realizado con humanos, al menos no tan deliberadamente, pero, en principio, son posibles. Estos experimentos con chimpancés también revelan que, si bien la exposición a ideas anteriores puede abrir nuevos espacios de pensamiento, también puede restringir el pensamiento. Si su cerebro colectivo solo posee martillos, entonces todo parece un martillo y todos los problemas parecen clavos. Pero si el cerebro colectivo también tiene acceso a las cuchillas, entonces los martillos y las cuchillas pueden combinarse para abrir el espacio de los ejes con mangos. No necesitamos limitarnos a hipotéticos. La psicología educativa muestra cómo el aprendizaje de algunas habilidades mejora la adquisición de otras. La exposición al cuestionamiento socrático mejora el pensamiento crítico de manera más general [147]; el aprendizaje del método de los loci (adjuntar elementos a una ubicación física en la memoria) mejora el rendimiento en las pruebas de memoria [148] y la exposición a la historia de los procesos de pensamiento de Darwin conduce a una mayor comprensión de evolución [149]. Estos pueden parecer obvios, pero demuestran cómo la exposición a nuevas técnicas e ideas puede afectar la adquisición de otras técnicas e ideas. En otros casos, los vínculos entre elementos de la cultura no son tan directos. Se ha argumentado que las diferencias transculturales en el pensamiento analítico versus holístico [150] tienen implicaciones para varios otros valores, creencias y comportamientos, desde la evaluación de marcas [151] hasta la construcción de entornos construidos [152].

Las ideas han interactuado, recombinado y moldeado unas a otras a lo largo de la historia y, al hacerlo, han abierto nuevos espacios de pensamiento y restringido otros. La invención de la rueda, inventada mucho después de la agricultura y las densas poblaciones, ocurrió solo en Eurasia. Su invención permitió la invención de carretillas, poleas y molinos, todos ausentes fuera de Eurasia. De manera similar, el descubrimiento de la energía almacenada elástica permitió la invención de arcos, trampas de resorte e instrumentos de cuerda, todos ausentes en Australia, donde no se inventó la energía almacenada elástica. El aire comprimido permitió cerbatanas, flautas y bocinas y, en última instancia, fuelles, metalurgia e hidráulica.

La invención de estas tecnologías también nos permite comprender mejor los principios que las sustentan: ¡comprender la termodinámica de una máquina de vapor es mucho más fácil cuando en realidad tienes una máquina de vapor! [12] Usamos nuestras tecnologías como metáforas, analogías y conceptos y nos permiten comprender e innovar de una manera que no podríamos sin esa cultura.


Aplicaciones

Experimentos neurofisiológicos de estímulo-respuesta.

Para ilustrar nuestro método, analizamos los datos de actividad de picos neuronales de experimentos de estímulo-respuesta en cuatro sistemas neuronales. El estímulo aplicado en cada experimento es estándar para el sistema neuronal que se está estudiando. Los protocolos animales ejecutados en los experimentos 1-3 fueron aprobados por los Comités Institucionales de Cuidado y Uso de Animales de la Universidad de Michigan para los estudios con conejillos de indias, la Universidad de Pittsburgh para los estudios con ratas y la Universidad de Nueva York para los estudios con monos. Los estudios en humanos del experimento 4 fueron aprobados por el Comité de Investigación en Humanos del Hospital General de Massachusetts.

En el experimento 1 (Fig.1A), se registraron trenes de picos neurales de 12 neuronas en la corteza auditiva primaria de conejillos de indias anestesiados en respuesta a un pulso eléctrico bifásico de 200 μs / fase a 44,7 μA aplicado en el colículo inferior (10). Tenga en cuenta que las grabaciones neuronales fueron generalmente respuestas de unidades múltiples registradas en 12 sitios, pero en este artículo nos referimos a ellas como neuronas. El estímulo se aplicó en el tiempo 0 y la actividad de picos se registró desde 10 ms antes del estímulo hasta 50 ms después del estímulo durante 40 ensayos. En el experimento 2, se registró actividad de picos neurales en 12 neuronas del núcleo posteromedial ventral (VPm) del tálamo (tálamo VPm) en ratas en respuesta a la estimulación del bigote (Fig.1B) (11). El estímulo fue la desviación del bigote a una velocidad de 50 mm / sa una tasa de repetición de ocho desviaciones por segundo. Cada deflexión tenía una amplitud de 1 mm y comenzaba desde la posición neutra de los bigotes como el valle de una sola onda sinusoidal y terminaba suavemente en la misma posición neutra.La actividad de picos neurales se registró durante 3.000 ms en 51 ensayos.

Gráficos de trama de actividad de picos neurales. (A) Cuarenta ensayos de actividad de picos registrados de una neurona en la corteza auditiva primaria de un conejillo de indias anestesiado en respuesta a un pulso eléctrico bifásico de 200 μs / fase aplicado en el colículo inferior en el tiempo 0. (B) Cincuenta ensayos de actividad de picos de una neurona talámica de rata registrados en respuesta a una desviación del bigote de 50 mm / s repetida ocho veces por segundo. (C) Veinticinco ensayos de actividad de picos de una neurona del hipocampo de mono registrados mientras se ejecutaba una tarea de asociación de escena de ubicación. (D) Cuarenta ensayos de actividad de picos registrados de una neurona del núcleo subtalámico en un paciente con enfermedad de Parkinson antes y después de un movimiento de la mano en cada una de las cuatro direcciones (dir.): Arriba (dir. U), derecha (dir. R), abajo (dir. . D), ya la izquierda (dir. L).

En el experimento 3 (Fig.1C), se registró actividad de picos neurales en 13 neuronas en el hipocampo de un mono que ejecutaba una tarea de asociación de escena de ubicación (13). Durante el experimento, se presentaron de dos a cuatro escenas novedosas junto con dos a cuatro escenas bien aprendidas en un orden aleatorio intercalado. Cada escena se presentó durante entre 25 y 60 ensayos. En el experimento 4, se registraron los datos de 10 neuronas en el núcleo subtalámico de pacientes con enfermedad de Parkinson humana (Fig.1D) ejecutando una tarea de movimiento dirigido (15). Las cuatro direcciones de movimiento fueron arriba, abajo, izquierda y derecha. Los trenes de picos neurales se registraron en 10 intentos por dirección comenzando 200 ms antes de la señal de movimiento y continuando hasta 200 ms después de la señal.

El PP-GLM se ajustó a los trenes de picos de cada neurona usando análisis de verosimilitud como se describió anteriormente. Ejemplos de la bondad de ajuste del modelo para una neurona de cada sistema se muestran en información de soporte. En la figura 2 se muestran ejemplos de las estimaciones del modelo de los efectos del estímulo y la historia para una neurona de cada sistema.

Estimaciones del componente de estímulo e historial de los análisis PP-GLM de la actividad de picos en la Fig. 1. (A) Neurona de la corteza auditiva primaria de cobaya. (B) Neurona talámica de rata. (C) Neurona hipocampal de mono. (D) Neurona del núcleo subtalámico humano. El componente de estímulo (Superior) es el efecto estimulado inducido por el estímulo sobre la tasa de picos en A, C, y D y la función de respuesta al impulso del estímulo en B. Los componentes de la historia (Más bajo) muestran la constante de modulación de la velocidad de disparo del pico.

SNR de neuronas individuales.

Encontramos que las estimaciones de S ^ NR S d B (Eq. 11) del estímulo que controla el efecto de las propiedades del modelo biofísico fueron (mediana [mínimo, máximo]): −6 dB [−10 dB, −3 dB] para las neuronas de la corteza auditiva de cobaya −9 dB [−18 dB, - 7 dB] para neuronas talámicas de rata –20 dB [–28 dB, –14 dB] para el hipocampo de mono y –23 dB [–29 dB, –20 dB] para neuronas subtalámicas humanas (Fig. 3, barras negras). Las SNR más altas (de la Eq. 11) en los experimentos 1 y 2 (Fig.3 A y B) son consistentes con el hecho de que los estímulos son explícitos, es decir, una corriente eléctrica y un desplazamiento mecánico del bigote, respectivamente, y que los sitios de registro están a solo dos sinapsis del estímulo. También es comprensible que las SNR sean más pequeñas para los sistemas hipocampo y talámico en los que los estímulos están implícitos, es decir, tareas de comportamiento (Fig.3 C y D).

SNR basado en KL para (A) 12 neuronas de la corteza auditiva de cobaya, (B) 12 neuronas del tálamo de rata, (C) 13 neuronas del hipocampo de mono, y (D) 10 neuronas del núcleo subtalámico de un paciente con enfermedad de Parkinson. Los puntos negros son S ^ NR S d B, las estimaciones de SNR debido al estímulo que corrige el historial de picos. Las barras negras son los intervalos de confianza de arranque del 95% para SNR S d B. Los puntos grises son S ^ NR H d B, las estimaciones de SNR debido a la biofísica intrínseca de la neurona que corrige el estímulo. Las barras grises son los intervalos de confianza de arranque del 95% para SNR H d B. Los puntos rodeados son la SNR y los intervalos de confianza del 95% para los gráficos de trama del tren de picos neurales en la Fig.1.

Encontramos que las estimaciones de S ^ NR H d B (de la Ec. 12) de las propiedades biofísicas que controlan el efecto del estímulo fueron: 2 dB [−9 dB, 7 dB] para la corteza auditiva de cobaya −13 dB [−22 dB, −8 dB] para neuronas talámicas de rata −15 dB [−24 dB , −11 dB] para las neuronas del hipocampo de mono y −12 dB [−16 dB, −5 dB] para las neuronas subtalámicas humanas (Fig. 3, barras grises). Fueron mayores que S ^ NR S d B para la corteza auditiva de cobaya (Fig.3A), el hipocampo del mono (Fig.3C), y los experimentos subtalámicos humanos (Fig.3D), lo que sugiere que las propensiones intrínsecas a picos de las neuronas son a menudo mayores que la propensión a picos inducida por la aplicación de un estímulo supuestamente relevante.

Un estudio de simulación de la estimación de SNR de una sola neurona.

Para analizar el rendimiento de nuestro paradigma de estimación de SNR, estudiamos respuestas de picos simulados de neuronas del hipocampo de mono con estímulos específicos y dinámicas históricas. Supusimos cuatro SNR conocidas de −8,3 dB, −17,4 dB, −28,7 dB y –∞ dB correspondientes, respectivamente, a los efectos de estímulo en rangos de tasas de picos de 500, 60, 10 y 0 picos por segundo (Fig.4, fila 1). Para cada uno de los estímulos SNR, asumimos que la dependencia del historial de picos (Fig.4, fila 2) es similar a la de la neurona en la Fig.1C. Para cada uno de los cuatro efectos de estímulo, simulamos 300 experimentos, cada uno de los cuales constaba de 25 ensayos (Fig. 4, fila 3). A cada uno de los 300 conjuntos de datos simulados en cada nivel de SNR, aplicamos nuestro paradigma de estimación de SNR: ajuste del modelo, selección del orden del modelo, evaluación de bondad de ajuste y estimación de S ^ NR S d B (Fig.4, fila 4 ) y S ^ NR H d B (Fig.4, fila 5).

SNR basado en KL de neuronas simuladas con componentes de estímulo e historial. Los componentes del estímulo se establecieron en cuatro SNR diferentes: (A) −8,3 dB, (B) −17,4 dB, (C) −28,7 dB y (D) –∞ dB, donde se utilizó el mismo componente de historial de picos en cada simulación. Para cada nivel de SNR, se realizaron 300 simulaciones de 25 ensayos. Se muestra (fila 1) la señal verdadera (fila 2) el componente de historial de picos verdaderos (fila 3) un diagrama ráster de un experimento simulado representativo (fila 4) histograma del 300 S ^ NR S d B, las estimaciones de SNR debido a el estímulo que corrige el historial de picos y (fila 5) el histograma de 300 S ^ NR H d B, las estimaciones de SNR debido a la biofísica intrínseca de la neurona que corrige el estímulo. Las líneas verticales en las filas 4 y 5 son las verdaderas SNR.

Las estimaciones de SNR con corrección de sesgo muestran una distribución simétrica alrededor de sus SNR verdaderas, lo que sugiere que la corrección de sesgo aproximada se realizó como se postuló (Fig. 4, filas 4 y 5). La excepción es el caso en el que la verdadera SNR fue - ∞ y nuestro paradigma estima S ^ NR S d B como números negativos grandes (Fig.4D, fila 4). Las S ^ NR S d B son de magnitud similar a las estimaciones de SNR en neuronas reales (ver SNR = −18,1 dB en la tercera neurona en la Fig.3C versus −17,4 dB en la neurona simulada (Fig.4B).

Un estudio de simulación de la estimación de SNR para neuronas individuales sin efecto histórico.

Repetimos el estudio de simulación sin dependencia del historial de picos para los valores verdaderos de SNR de −1,5 dB, −16,9 dB, −27,9 dB y –∞ dB, con 25 ensayos por experimento y 300 realizaciones por experimento (Fig. 5). La eliminación de la dependencia del historial hace que los datos simulados dentro y entre ensayos sean realizaciones independientes de un proceso de Poisson no homogéneo. El pico cuenta entre los ensayos dentro de un intervalo de 1 ms obedece a un modelo binomial con norte = 25 y la probabilidad de un pico definido por los valores de la función de intensidad condicional verdadera multiplicada por 1 ms. Por lo tanto, es posible calcular analíticamente la SNR y el sesgo en las estimaciones. Usamos nuestro paradigma para calcular S ^ NR S d B. A modo de comparación, también calculamos la SNR basada en la varianza propuesta por Lyamzin et al. (20) Tanto S ^ NR S d B como las estimaciones basadas en la varianza se calcularon a partir de los parámetros obtenidos de los mismos ajustes GLM (ver Eq. T16). Para cada simulación en la Fig. 5, se muestra el verdadero valor de SNR basado en nuestro paradigma (líneas verticales).

Una comparación de la estimación de SNR en neuronas simuladas. Los componentes del estímulo se establecieron en cuatro SNR diferentes: (A) −1,5 dB, (B) −16,9 dB y (C) −27,9 dB sin componente histórico. Para cada nivel de SNR, se realizaron 300 simulaciones de 25 ensayos. Se muestran (fila 1) la señal verdadera (fila 2) un diagrama de trama de un experimento simulado representativo (fila 3) histograma de las estimaciones de SNR basadas en 300 KL, S ^ NR S d B y (fila 4) histograma de los 300 estimaciones de SNR basadas en errores al cuadrado, S ^ NR SE d B (20). Las líneas verticales en las filas 3 y 4 son las verdaderas SNR.

Los histogramas de S ^ NR S d B (Fig. 5, fila 3) se distribuyen simétricamente alrededor de la verdadera SNR esperada. La estimación de SNR basada en la varianza sobreestima la verdadera SNR en la Fig.5A y subestima la verdadera SNR en la Fig.5 B y C. Estas simulaciones ilustran que la SNR basada en la varianza es una medida de incertidumbre menos refinada, ya que se basa solo en los dos primeros momentos de los datos de picos, mientras que nuestra estimación se basa en la probabilidad que utiliza información de todos los momentos. En el mejor de los casos, la estimación de SNR basada en la varianza puede proporcionar un límite inferior para el contenido de información en los sistemas no gaussianos (16). Los estimadores de SNR basados ​​en la varianza pueden mejorarse utilizando información de momentos de orden superior (37), que es, efectivamente, lo que hacen nuestros estimadores de SNR basados ​​en la probabilidad.


Contenido

Las neuronas son notables entre las células del cuerpo por su capacidad para propagar señales rápidamente a grandes distancias. Lo hacen generando pulsos eléctricos característicos llamados potenciales de acción: picos de voltaje que pueden viajar por los axones. Las neuronas sensoriales cambian sus actividades disparando secuencias de potenciales de acción en varios patrones temporales, con la presencia de estímulos sensoriales externos, como la luz, el sonido, el gusto, el olfato y el tacto. Se sabe que la información sobre el estímulo se codifica en este patrón de potenciales de acción y se transmite dentro y alrededor del cerebro, pero este no es el único método. Las neuronas especializadas, como las de la retina, pueden comunicar más información a través de potenciales graduados. Esto difiere de los potenciales de acción porque la información sobre la fuerza de un estímulo se correlaciona directamente con la fuerza de salida de las neuronas. La señal decae mucho más rápido para los potenciales graduados, lo que requiere distancias entre neuronas cortas y una alta densidad neuronal. La ventaja de los potenciales graduados son tasas de información más altas capaces de codificar más estados (es decir, mayor fidelidad) que las neuronas de picos. [4]

Aunque los potenciales de acción pueden variar algo en duración, amplitud y forma, generalmente se tratan como eventos estereotipados idénticos en los estudios de codificación neuronal. Si se ignora la breve duración de un potencial de acción (aproximadamente 1 ms), una secuencia de potencial de acción, o tren de picos, puede caracterizarse simplemente por una serie de eventos puntuales de todo o nada en el tiempo. [5] Las longitudes de los intervalos entre picos (ISI) entre dos picos sucesivos en un tren de picos a menudo varían, aparentemente al azar. [6] El estudio de la codificación neuronal implica medir y caracterizar cómo los atributos de los estímulos, como la intensidad de la luz o el sonido, o las acciones motoras, como la dirección del movimiento de un brazo, están representados por los potenciales de acción o picos de las neuronas. Para describir y analizar el disparo neuronal, se han aplicado ampliamente métodos estadísticos y métodos de teoría de probabilidad y procesos de puntos estocásticos.

Con el desarrollo de tecnologías de grabación y decodificación neuronal a gran escala, los investigadores han comenzado a descifrar el código neuronal y ya han proporcionado el primer vistazo al código neuronal en tiempo real a medida que la memoria se forma y recuerda en el hipocampo, una región del cerebro conocida por ser fundamental para la formación de la memoria. [7] [8] [9] Los neurocientíficos han iniciado varios proyectos de decodificación del cerebro a gran escala. [10] [11]

El vínculo entre estímulo y respuesta se puede estudiar desde dos puntos de vista opuestos. La codificación neuronal se refiere al mapa del estímulo a la respuesta. El objetivo principal es comprender cómo responden las neuronas a una amplia variedad de estímulos y construir modelos que intenten predecir las respuestas a otros estímulos. La decodificación neuronal se refiere al mapa inverso, desde la respuesta al estímulo, y el desafío es reconstruir un estímulo, o ciertos aspectos de ese estímulo, a partir de las secuencias de picos que evoca.

Una secuencia, o 'tren', de picos puede contener información basada en diferentes esquemas de codificación. En las neuronas motoras, por ejemplo, la fuerza a la que se contrae un músculo inervado depende únicamente de la "tasa de activación", el número medio de picos por unidad de tiempo (un "código de frecuencia"). En el otro extremo, un "código temporal" complejo se basa en la sincronización precisa de picos individuales. Pueden estar bloqueados a un estímulo externo como en el sistema visual [12] y auditivo o ser generados intrínsecamente por los circuitos neurales. [13]

Si las neuronas usan codificación de velocidad o codificación temporal es un tema de intenso debate dentro de la comunidad de neurociencias, aunque no existe una definición clara de lo que significan estos términos. [14]

Codificación de tarifas Editar

El modelo de codificación de velocidad de la comunicación de activación neuronal establece que a medida que aumenta la intensidad de un estímulo, aumenta la frecuencia o la velocidad de los potenciales de acción, o "activación de picos". La codificación de velocidad a veces se denomina codificación de frecuencia.

La codificación de frecuencia es un esquema de codificación tradicional, asumiendo que la mayor parte, si no toda, la información sobre el estímulo está contenida en la frecuencia de activación de la neurona. Debido a que la secuencia de potenciales de acción generados por un estímulo dado varía de un ensayo a otro, las respuestas neuronales se tratan típicamente de forma estadística o probabilística. Pueden caracterizarse por tasas de disparo, en lugar de secuencias de picos específicas. En la mayoría de los sistemas sensoriales, la frecuencia de disparo aumenta, generalmente de forma no lineal, al aumentar la intensidad del estímulo. [15] Bajo un supuesto de codificación de velocidad, se ignora cualquier información posiblemente codificada en la estructura temporal del tren de picos. En consecuencia, la codificación de velocidad es ineficaz pero muy robusta con respecto al "ruido" ISI. [6]

Durante la codificación de velocidad, es muy importante calcular con precisión la velocidad de disparo. De hecho, el término "tasa de disparo" tiene algunas definiciones diferentes, que se refieren a diferentes procedimientos de promediado, como un promedio en el tiempo (tasa como un recuento de picos de una sola neurona) o un promedio en varias repeticiones (tasa de PSTH) del experimento.

En la codificación de velocidad, el aprendizaje se basa en modificaciones de peso sináptico dependientes de la actividad.

La codificación de velocidad fue mostrada originalmente por ED Adrian e Y Zotterman en 1926. [16] En este sencillo experimento se colgaron diferentes pesos de un músculo. A medida que aumentaba el peso del estímulo, también aumentaba el número de picos registrados por los nervios sensoriales que inervan el músculo. A partir de estos experimentos originales, Adrian y Zotterman concluyeron que los potenciales de acción eran eventos unitarios y que la frecuencia de los eventos, y no la magnitud de los eventos individuales, era la base de la mayor parte de la comunicación interneuronal.

En las décadas siguientes, la medición de las tasas de activación se convirtió en una herramienta estándar para describir las propiedades de todos los tipos de neuronas sensoriales o corticales, en parte debido a la relativa facilidad de medir las tasas de manera experimental. Sin embargo, este enfoque ignora toda la información posiblemente contenida en el momento exacto de los picos. Durante los últimos años, más y más evidencia experimental ha sugerido que un concepto sencillo de tasa de disparo basado en el promedio temporal puede ser demasiado simplista para describir la actividad cerebral. [6]

Tasa de recuento de picos (promedio a lo largo del tiempo) Editar

La tasa de recuento de picos, también conocida como promedio temporal, se obtiene contando el número de picos que aparecen durante una prueba y dividiendo por la duración de la prueba. [14] La longitud T de la ventana de tiempo la establece el experimentador y depende del tipo de neurona registrada desde y hacia el estímulo. En la práctica, para obtener promedios razonables, deben producirse varios picos dentro de la ventana de tiempo. Los valores típicos son T = 100 ms o T = 500 ms, pero la duración también puede ser más larga o más corta (Capítulo 1.5 del libro de texto 'Modelos de neuronas punzantes' [14]).

La tasa de recuento de picos se puede determinar a partir de una única prueba, pero a expensas de perder toda la resolución temporal sobre las variaciones en la respuesta neuronal durante el curso de la prueba. El promedio temporal puede funcionar bien en los casos en que el estímulo es constante o varía lentamente y no requiere una reacción rápida del organismo, y esta es la situación que generalmente se encuentra en los protocolos experimentales. La entrada del mundo real, sin embargo, apenas es estacionaria, pero a menudo cambia en una escala de tiempo rápida. Por ejemplo, incluso al ver una imagen estática, los humanos realizan movimientos sacádicos, cambios rápidos de la dirección de la mirada. La imagen proyectada en los fotorreceptores retinianos cambia, por lo tanto, cada pocos cientos de milisegundos (Capítulo 1.5 en [14]).

A pesar de sus deficiencias, el concepto de código de tasa de recuento de picos se usa ampliamente no solo en experimentos, sino también en modelos de redes neuronales. Ha llevado a la idea de que una neurona transforma la información sobre una única variable de entrada (la fuerza del estímulo) en una única variable de salida continua (la tasa de activación).

Existe un creciente cuerpo de evidencia de que en las neuronas de Purkinje, al menos, la información no se codifica simplemente en la activación, sino también en el momento y la duración de los períodos inactivos sin activación. [17] [18] También hay evidencia de las células de la retina, que la información está codificada no solo en la tasa de disparo sino también en la sincronización de los picos. [19] De manera más general, siempre que se requiera una respuesta rápida de un organismo, una tasa de disparo definida como un recuento de picos de unos pocos cientos de milisegundos es simplemente demasiado lenta. [14]

Tasa de disparo dependiente del tiempo (promedio de varias pruebas) Editar

La tasa de disparo dependiente del tiempo se define como el número promedio de picos (promediado durante las pruebas) que aparecen durante un intervalo corto entre los tiempos tyt + Δt, dividido por la duración del intervalo. [14] Funciona tanto para estímulos estacionarios como para estímulos dependientes del tiempo. Para medir experimentalmente la tasa de disparo dependiente del tiempo, el experimentador graba desde una neurona mientras estimula con alguna secuencia de entrada. La misma secuencia de estimulación se repite varias veces y la respuesta neuronal se informa en un Histograma de Peri-Estímulo-Tiempo (PSTH). El tiempo t se mide con respecto al inicio de la secuencia de estimulación. El Δt debe ser lo suficientemente grande (típicamente en el rango de uno o algunos milisegundos) para que haya un número suficiente de picos dentro del intervalo para obtener una estimación confiable del promedio. El número de apariciones de picos nK(tt + Δt) sumado a todas las repeticiones del experimento dividido por el número K de repeticiones es una medida de la actividad típica de la neurona entre el tiempo t y t + Δt.Una división adicional por la longitud del intervalo Δt produce una tasa de activación dependiente del tiempo r (t) de la neurona, que es equivalente a la densidad de picos de PSTH (capítulo 1.5 en [14]).

Para Δt suficientemente pequeño, r (t) Δt es el número promedio de picos que ocurren entre los tiempos t y t + Δt en múltiples ensayos. Si Δt es pequeño, nunca habrá más de un pico dentro del intervalo entre t y t + Δt en cualquier ensayo dado. Esto significa que r (t) Δt es también la fracción de ensayos en los que se produjo un pico entre esos momentos. De manera equivalente, r (t) Δt es la probabilidad de que ocurra un pico durante este intervalo de tiempo.

Como procedimiento experimental, la medida de la tasa de activación dependiente del tiempo es un método útil para evaluar la actividad neuronal, en particular en el caso de estímulos dependientes del tiempo. El problema obvio con este enfoque es que no puede ser el esquema de codificación utilizado por las neuronas en el cerebro. Las neuronas no pueden esperar a que los estímulos se presenten repetidamente de la misma manera antes de generar una respuesta. [14]

No obstante, la medida experimental de la tasa de activación dependiente del tiempo puede tener sentido si hay grandes poblaciones de neuronas independientes que reciben el mismo estímulo. En lugar de registrar a partir de una población de N neuronas en una sola corrida, es experimentalmente más fácil registrar desde una sola neurona y promediar sobre N corridas repetidas. Por tanto, la codificación de la tasa de activación dependiente del tiempo se basa en la suposición implícita de que siempre hay poblaciones de neuronas.

Codificación temporal Editar

Cuando se descubre que la sincronización precisa de los picos o las fluctuaciones de la velocidad de disparo de alta frecuencia transportan información, el código neuronal a menudo se identifica como un código temporal. [14] [20] Varios estudios han encontrado que la resolución temporal del código neuronal está en una escala de tiempo de milisegundos, lo que indica que la sincronización precisa de los picos es un elemento significativo en la codificación neuronal. [3] [21] [19] Estos códigos, que se comunican a través del tiempo entre picos, también se denominan códigos de intervalo entre impulsos y han sido respaldados por estudios recientes. [22]

Las neuronas exhiben fluctuaciones de alta frecuencia de tasas de disparo que podrían ser ruido o podrían transportar información. Los modelos de codificación de velocidad sugieren que estas irregularidades son ruido, mientras que los modelos de codificación temporal sugieren que codifican información. Si el sistema nervioso solo usara códigos de frecuencia para transmitir información, una frecuencia de disparo regular más consistente habría sido evolutivamente ventajosa, y las neuronas habrían utilizado este código sobre otras opciones menos robustas. [23] La codificación temporal proporciona una explicación alternativa para el "ruido", lo que sugiere que en realidad codifica información y afecta el procesamiento neuronal. Para modelar esta idea, se pueden usar símbolos binarios para marcar los picos: 1 para un pico, 0 para ningún pico . La codificación temporal permite que la secuencia 000111000111 signifique algo diferente de 001100110011, aunque la tasa de disparo media es la misma para ambas secuencias, a 6 picos / 10 ms. [24] Hasta hace poco, los científicos habían puesto el mayor énfasis en la codificación de tasa como una explicación para los patrones potenciales postsinápticos. Sin embargo, las funciones del cerebro son temporalmente más precisas de lo que parece permitir el uso de solo la codificación de velocidad. [19] En otras palabras, la información esencial podría perderse debido a la incapacidad del código de velocidad para capturar toda la información disponible del tren de picos. Además, las respuestas son lo suficientemente diferentes entre estímulos similares (pero no idénticos) para sugerir que los distintos patrones de picos contienen un mayor volumen de información n de lo que es posible incluir en un código de tarifa. [25]

Los códigos temporales (también llamados códigos de picos [14]), emplean aquellas características de la actividad de picos que no pueden ser descritas por la tasa de disparo. Por ejemplo, tiempo hasta el primer pico después del inicio del estímulo, fase de cocción con respecto a las oscilaciones de fondo, características basadas en el segundo y más alto momento estadístico de la distribución de probabilidad ISI, aleatoriedad de picos o grupos de picos cronometrados con precisión (patrones temporales) son candidatos a códigos temporales. [26] Como no existe una referencia de tiempo absoluta en el sistema nervioso, la información se transmite en términos de la sincronización relativa de los picos en una población de neuronas (patrones temporales) o con respecto a una oscilación cerebral en curso. (fase de disparo) [3] [6] Una forma en la que se decodifican los códigos temporales, en presencia de oscilaciones neurales, es que los picos que ocurren en fases específicas de un ciclo oscilatorio son más efectivos para despolarizar la neurona postsináptica. [27]

La estructura temporal de un tren de picos o tasa de disparo evocada por un estímulo está determinada tanto por la dinámica del estímulo como por la naturaleza del proceso de codificación neuronal. Los estímulos que cambian rápidamente tienden a generar picos cronometrados con precisión [28] (y tasas de activación que cambian rápidamente en los PSTH) sin importar qué estrategia de codificación neuronal se esté utilizando. La codificación temporal en sentido estricto se refiere a la precisión temporal en la respuesta que no surge únicamente de la dinámica del estímulo, sino que, sin embargo, se relaciona con las propiedades del estímulo. La interacción entre el estímulo y la dinámica de codificación dificulta la identificación de un código temporal.

En la codificación temporal, el aprendizaje se puede explicar mediante modificaciones de retardo sináptico dependientes de la actividad. [29] Las modificaciones pueden depender en sí mismas no solo de las tasas de picos (codificación de la tasa) sino también de los patrones de sincronización de los picos (codificación temporal), es decir, pueden ser un caso especial de plasticidad dependiente de la sincronización de los picos. [30]

La cuestión de la codificación temporal es distinta e independiente de la cuestión de la codificación de picos independientes. Si cada pico es independiente de todos los demás picos del tren, el carácter temporal del código neuronal está determinado por el comportamiento de la velocidad de disparo r (t) dependiente del tiempo. Si r (t) varía lentamente con el tiempo, el código generalmente se denomina código de tasa, y si varía rápidamente, el código se denomina temporal.

Codificación temporal en sistemas sensoriales Editar

Para estímulos muy breves, es posible que la velocidad máxima de activación de una neurona no sea lo suficientemente rápida como para producir más de un pico. Debido a la densidad de información sobre el estímulo abreviado contenida en este único pico, parecería que el momento del pico en sí tendría que transmitir más información que simplemente la frecuencia promedio de los potenciales de acción durante un período de tiempo determinado. Este modelo es especialmente importante para la localización del sonido, que ocurre dentro del cerebro en el orden de milisegundos. El cerebro debe obtener una gran cantidad de información basada en una respuesta neuronal relativamente corta. Además, si las tasas de activación bajas del orden de diez picos por segundo deben distinguirse de la codificación de tasas arbitrariamente cercanas para diferentes estímulos, entonces una neurona que intente discriminar estos dos estímulos puede necesitar esperar un segundo o más para acumular suficiente información. Esto no es consistente con numerosos organismos que pueden discriminar entre estímulos en el marco de tiempo de milisegundos, lo que sugiere que un código de velocidad no es el único modelo en funcionamiento. [24]

Para tener en cuenta la codificación rápida de los estímulos visuales, se ha sugerido que las neuronas de la retina codifican información visual en el tiempo de latencia entre el inicio del estímulo y el primer potencial de acción, también llamado latencia hasta el primer pico o tiempo hasta el primer pico. [31] Este tipo de codificación temporal se ha demostrado también en el sistema auditivo y somatosensorial. El principal inconveniente de tal esquema de codificación es su sensibilidad a las fluctuaciones neuronales intrínsecas. [32] En la corteza visual primaria de los macacos, se encontró que el momento del primer pico en relación con el inicio del estímulo proporciona más información que el intervalo entre picos. Sin embargo, el intervalo entre picos podría usarse para codificar información adicional, lo cual es especialmente importante cuando la tasa de picos alcanza su límite, como en situaciones de alto contraste. Por esta razón, la codificación temporal puede desempeñar un papel en la codificación de bordes definidos en lugar de transiciones graduales. [33]

El sistema gustativo de los mamíferos es útil para estudiar la codificación temporal debido a sus estímulos bastante distintos y las respuestas fácilmente discernibles del organismo. [34] La información codificada temporalmente puede ayudar a un organismo a discriminar entre diferentes saborizantes de la misma categoría (dulce, amargo, ácido, salado, umami) que provocan respuestas muy similares en términos de recuento de picos. El componente temporal del patrón provocado por cada saborizante puede usarse para determinar su identidad (por ejemplo, la diferencia entre dos saborizantes amargos, como la quinina y el denatonio). De esta manera, tanto la codificación de velocidad como la codificación temporal pueden usarse en el sistema gustativo: velocidad para el tipo de sabor básico, temporal para una diferenciación más específica. [35] La investigación sobre el sistema gustativo de los mamíferos ha demostrado que existe una abundancia de información presente en los patrones temporales de las poblaciones de neuronas, y esta información es diferente de la que se determina mediante los esquemas de codificación de velocidad. Los grupos de neuronas pueden sincronizarse en respuesta a un estímulo. En estudios que se ocupan de la porción cortical frontal del cerebro en primates, se encontraron patrones precisos con escalas de tiempo cortas de solo unos pocos milisegundos de duración en pequeñas poblaciones de neuronas que se correlacionaron con ciertos comportamientos de procesamiento de información. Sin embargo, se pudo determinar poca información a partir de los patrones. Una teoría posible es que representan el procesamiento de orden superior que tiene lugar en el cerebro. [25]

Al igual que con el sistema visual, en las células mitrales / con mechones en el bulbo olfatorio de los ratones, la latencia del primer pico en relación con el inicio de una acción de olfateo parecía codificar gran parte de la información sobre un olor. Esta estrategia de utilizar latencia de picos permite una rápida identificación y reacción a un olor. Además, algunas células mitrales / en penacho tienen patrones de activación específicos para determinados olores. Este tipo de información adicional podría ayudar a reconocer cierto olor, pero no es completamente necesario, ya que el recuento promedio de picos en el transcurso del olfato del animal también fue un buen identificador. [36] En la misma línea, los experimentos realizados con el sistema olfativo de los conejos mostraron patrones distintos que se correlacionaron con diferentes subconjuntos de odorantes, y se obtuvo un resultado similar en experimentos con el sistema olfativo de la langosta. [24]

Aplicaciones de codificación temporal Editar

La especificidad de la codificación temporal requiere una tecnología altamente refinada para medir datos experimentales informativos y confiables. Los avances realizados en optogenética permiten a los neurólogos controlar picos en neuronas individuales, ofreciendo resolución eléctrica y espacial de una sola célula. Por ejemplo, la luz azul hace que la canalrodopsina del canal iónico activado por luz se abra, despolarizando la célula y produciendo un pico. Cuando la célula no detecta la luz azul, el canal se cierra y la neurona deja de generar picos. El patrón de los picos coincide con el patrón de los estímulos de luz azul. Al insertar secuencias de genes de canalrodopsina en el ADN del ratón, los investigadores pueden controlar los picos y, por lo tanto, ciertos comportamientos del ratón (por ejemplo, hacer que el ratón gire a la izquierda). [37] Los investigadores, a través de la optogenética, tienen las herramientas para efectuar diferentes códigos temporales en una neurona mientras mantienen la misma tasa de activación media y, por lo tanto, pueden probar si la codificación temporal ocurre o no en circuitos neuronales específicos. [38]

La tecnología optogenética también tiene el potencial de permitir la corrección de anomalías en picos en la raíz de varios trastornos neurológicos y psicológicos. [38] Si las neuronas codifican información en patrones de sincronización de picos individuales, las señales clave podrían perderse al intentar descifrar el código mientras se observan solo las tasas medias de activación. [24] Comprender cualquier aspecto codificado temporalmente del código neuronal y replicar estas secuencias en las neuronas podría permitir un mayor control y tratamiento de trastornos neurológicos como la depresión, la esquizofrenia y la enfermedad de Parkinson. La regulación de los intervalos de picos en células individuales controla con mayor precisión la actividad cerebral que la adición de agentes farmacológicos por vía intravenosa. [37]

Código de fase de disparo Editar

El código de fase de disparo es un esquema de codificación neuronal que combina el código de recuento de picos con una referencia de tiempo basada en oscilaciones. Este tipo de código tiene en cuenta una etiqueta de tiempo para cada pico de acuerdo con una referencia de tiempo basada en la fase de las oscilaciones locales en curso a frecuencias bajas [39] o altas. [40]

Se ha demostrado que las neuronas en algunas áreas sensoriales corticales codifican ricos estímulos naturalistas en términos de sus tiempos de pico en relación con la fase de fluctuaciones oscilatorias de la red en curso, en lugar de solo en términos de su recuento de picos. [39] [41] Las señales de potencial del campo local reflejan las oscilaciones de la población (red). El código de fase de disparo a menudo se clasifica como un código temporal, aunque la etiqueta de tiempo utilizada para los picos (es decir, la fase de oscilación de la red) es una referencia de baja resolución (de grano grueso) para el tiempo. Como resultado, a menudo solo cuatro valores discretos para la fase son suficientes para representar todo el contenido de información en este tipo de código con respecto a la fase de oscilaciones en bajas frecuencias. El código de fase de disparo se basa libremente en los fenómenos de precesión de fase observados en las células del hipocampo. Otra característica de este código es que las neuronas se adhieren a un orden preferido de picos entre un grupo de neuronas sensoriales, lo que da como resultado una secuencia de activación. [42]

Se ha demostrado que el código de fase en la corteza visual implica también oscilaciones de alta frecuencia. [42] Dentro de un ciclo de oscilación gamma, cada neurona tiene su propio tiempo de activación relativo preferido. Como resultado, una población completa de neuronas genera una secuencia de disparo que tiene una duración de hasta aproximadamente 15 ms. [42]

Codificación de población Editar

La codificación de población es un método para representar estímulos utilizando las actividades conjuntas de varias neuronas. En la codificación de población, cada neurona tiene una distribución de respuestas sobre algún conjunto de entradas, y las respuestas de muchas neuronas pueden combinarse para determinar algún valor sobre las entradas. Desde el punto de vista teórico, la codificación de poblaciones es uno de los pocos problemas matemáticamente bien formulados en neurociencia. Comprende las características esenciales de la codificación neuronal y, sin embargo, es lo suficientemente simple para el análisis teórico. [43] Los estudios experimentales han revelado que este paradigma de codificación se utiliza ampliamente en las áreas motoras y sensoriales del cerebro.

Por ejemplo, en el área visual medial temporal (MT), las neuronas están sintonizadas en la dirección del movimiento. [44] En respuesta a un objeto que se mueve en una dirección particular, muchas neuronas en MT se activan con un patrón de actividad en forma de campana y con ruido corrupto en toda la población. La dirección de movimiento del objeto se recupera de la actividad de la población, para ser inmune a la fluctuación existente en la señal de una sola neurona. Cuando se entrena a los monos para mover un joystick hacia un objetivo iluminado, una sola neurona se disparará para múltiples direcciones del objetivo. Sin embargo, dispara más rápido en una dirección y más lentamente, dependiendo de qué tan cerca esté el objetivo de la dirección "preferida" de la neurona. [45] [46] Si cada neurona representa el movimiento en su dirección preferida y se calcula la suma vectorial de todas las neuronas (cada neurona tiene una velocidad de disparo y una dirección preferida), la suma apunta en la dirección del movimiento. De esta manera, la población de neuronas codifica la señal del movimiento. [ cita necesaria ] Este código de población en particular se conoce como codificación de vectores de población.

Los códigos de población lugar-tiempo, denominados código de respuesta sincronizada localizada promediada (ALSR), se han derivado para la representación neuronal de los estímulos acústicos auditivos. Esto explota tanto el lugar o la sintonía dentro del nervio auditivo, así como el bloqueo de fase dentro de cada nervio auditivo de fibra nerviosa. La primera representación ALSR fue para vocales en estado estable [47]. Las representaciones ALSR de frecuencias de tono y formantes en estímulos complejos, en estado no estable se demostraron más tarde para tonos sonoros, [48] y representaciones de formantes en sílabas consonante-vocal. [49] La ventaja de tales representaciones es que las características globales, como el tono o los perfiles de transición de formantes, se pueden representar como características globales en todo el nervio simultáneamente mediante la codificación de velocidad y lugar.

La codificación de la población también tiene otras ventajas, incluida la reducción de la incertidumbre debido a la variabilidad neuronal y la capacidad de representar varios atributos de estímulo diferentes simultáneamente. La codificación de población también es mucho más rápida que la codificación de velocidad y puede reflejar cambios en las condiciones de estímulo casi instantáneamente. [50] Las neuronas individuales en una población de este tipo suelen tener selectividades diferentes pero superpuestas, de modo que muchas neuronas, pero no necesariamente todas, responden a un estímulo dado.

Normalmente, una función de codificación tiene un valor máximo de modo que la actividad de la neurona es máxima si el valor perceptual está cerca del valor máximo, y se reduce en consecuencia para valores menos cercanos al valor máximo. [ cita necesaria ] De ello se deduce que el valor real percibido se puede reconstruir a partir del patrón general de actividad en el conjunto de neuronas. La codificación vectorial es un ejemplo de promediado simple. Una técnica matemática más sofisticada para realizar tal reconstrucción es el método de máxima verosimilitud basado en una distribución multivariante de las respuestas neuronales. Estos modelos pueden asumir independencia, correlaciones de segundo orden, [51] o incluso dependencias más detalladas como modelos de entropía máxima de orden superior, [52] o cópulas. [53]

Codificación de correlación Editar

El modelo de codificación de correlación del disparo neuronal afirma que las correlaciones entre los potenciales de acción, o "picos", dentro de un tren de picos pueden llevar información adicional más allá de la simple sincronización de los picos. Los primeros trabajos sugirieron que la correlación entre los trenes de picos solo puede reducir, y nunca aumentar, la información mutua total presente en los dos trenes de picos sobre una característica de estímulo. [54] Sin embargo, más tarde se demostró que esto era incorrecto. La estructura de correlación puede aumentar el contenido de la información si las correlaciones de ruido y señal son de signo opuesto. [55] Las correlaciones también pueden llevar información que no está presente en la tasa de activación promedio de dos pares de neuronas. Un buen ejemplo de esto existe en la corteza auditiva del tití anestesiado con pentobarbital, en el que un tono puro provoca un aumento en el número de picos correlacionados, pero no un aumento en la tasa de activación media, de pares de neuronas. [56]

Codificación de picos independientes Editar

El modelo de codificación de picos independientes de activación neuronal afirma que cada potencial de acción individual, o "pico", es independiente entre sí dentro del tren de picos. [57] [58]

Codificación de posición Editar

Un código de población típico involucra neuronas con una curva de sintonía gaussiana cuyas medias varían linealmente con la intensidad del estímulo, lo que significa que la neurona responde con más fuerza (en términos de picos por segundo) a un estímulo cercano a la media. La intensidad real podría recuperarse como el nivel de estímulo correspondiente a la media de la neurona con mayor respuesta. Sin embargo, el ruido inherente a las respuestas neuronales significa que una función de estimación de máxima verosimilitud es más precisa.

Este tipo de código se utiliza para codificar variables continuas como la posición de la articulación, la posición de los ojos, el color o la frecuencia del sonido. Cualquier neurona individual es demasiado ruidosa para codificar fielmente la variable utilizando la codificación de velocidad, pero una población completa garantiza una mayor fidelidad y precisión. Para una población de curvas de sintonización unimodales, es decir, con un solo pico, la precisión suele escalar linealmente con el número de neuronas. Por lo tanto, para la mitad de precisión, se requieren la mitad de neuronas. Por el contrario, cuando las curvas de sintonía tienen múltiples picos, como en las celdas de la cuadrícula que representan el espacio, la precisión de la población puede escalar exponencialmente con el número de neuronas. Esto reduce en gran medida el número de neuronas necesarias para la misma precisión. [59]

Codificación escasa Editar

El código escaso es cuando cada elemento está codificado por la fuerte activación de un conjunto relativamente pequeño de neuronas. Para cada elemento a codificar, este es un subconjunto diferente de todas las neuronas disponibles. A diferencia de la codificación de sensores dispersos, la codificación densa de sensores implica que se conoce toda la información de las posibles ubicaciones de los sensores.

Como consecuencia, la escasez puede centrarse en la escasez temporal ("un número relativamente pequeño de períodos de tiempo están activos") o en la escasez en una población activada de neuronas. En este último caso, esto puede definirse en un período de tiempo como el número de neuronas activadas en relación con el número total de neuronas en la población. Este parece ser un sello distintivo de los cálculos neuronales ya que, en comparación con las computadoras tradicionales, la información se distribuye masivamente entre las neuronas. La codificación escasa de imágenes naturales produce filtros orientados en forma de ondas que se asemejan a los campos receptivos de células simples en la corteza visual. [60] La capacidad de los códigos dispersos puede aumentarse mediante el uso simultáneo de codificación temporal, como se encuentra en el sistema olfativo de la langosta. [61]

Dado un conjunto potencialmente grande de patrones de entrada, los algoritmos de codificación dispersos (por ejemplo, el codificador automático disperso) intentan encontrar automáticamente una pequeña cantidad de patrones representativos que, cuando se combinan en las proporciones correctas, reproducen los patrones de entrada originales. La codificación escasa para la entrada consiste entonces en esos patrones representativos. Por ejemplo, el conjunto muy grande de oraciones en inglés se puede codificar con una pequeña cantidad de símbolos (es decir, letras, números, puntuación y espacios) combinados en un orden particular para una oración en particular, por lo que una codificación escasa para el inglés sería la símbolos.

Modelo generativo lineal Editar

La mayoría de los modelos de codificación escasa se basan en el modelo generativo lineal. [62] En este modelo, los símbolos se combinan de forma lineal para aproximar la entrada.

Las codificaciones generadas por algoritmos que implementan un modelo generativo lineal se pueden clasificar en codificaciones con escasez suave y aquellos con escasez dura. [62] Se refieren a la distribución de los coeficientes del vector base para las entradas típicas. Una codificación con escasez suave tiene una distribución suave similar a la de Gauss, pero más pico que la gaussiana, con muchos valores cero, algunos valores absolutos pequeños, menos valores absolutos más grandes y muy pocos valores absolutos muy grandes. Por tanto, muchos de los vectores básicos están activos. La escasez dura, por otro lado, indica que hay muchos valores cero, no o apenas valores absolutos pequeños, menos valores absolutos más grandes y muy pocos valores absolutos muy grandes, por lo que pocos de los vectores básicos están activos. Esto es atractivo desde una perspectiva metabólica: se utiliza menos energía cuando se activan menos neuronas. [62]

Otra medida de codificación es si es críticamente completo o sobrecompleto. Si el número de vectores base n es igual a la dimensionalidad k del conjunto de entrada, se dice que la codificación es críticamente completa. En este caso, los cambios suaves en el vector de entrada dan como resultado cambios abruptos en los coeficientes, y la codificación no es capaz de manejar con gracia pequeñas escalas, pequeñas traslaciones o ruido en las entradas. Sin embargo, si el número de vectores base es mayor que la dimensionalidad del conjunto de entrada, la codificación es sobrecompletar. Las codificaciones sobrecompletas se interpolan suavemente entre los vectores de entrada y son robustas bajo el ruido de entrada. [64] Se estima que la corteza visual primaria humana está sobrecompleta en un factor de 500, de modo que, por ejemplo, un parche de entrada de 14 x 14 (un espacio de 196 dimensiones) está codificado por aproximadamente 100.000 neuronas. [62]

Otros modelos se basan en la búsqueda de coincidencias, un algoritmo de aproximación dispersa que encuentra las proyecciones de "mejores coincidencias" de datos multidimensionales, y el aprendizaje de diccionario, un método de aprendizaje de representación que tiene como objetivo encontrar una representación matricial dispersa de los datos de entrada en forma lineal. combinación de elementos básicos, así como esos mismos elementos básicos. [65] [66] [67]

Evidencia biológica Editar

La codificación dispersa puede ser una estrategia general de los sistemas neuronales para aumentar la capacidad de memoria. Para adaptarse a su entorno, los animales deben aprender qué estímulos están asociados con recompensas o castigos y distinguir estos estímulos reforzados de otros similares pero irrelevantes. Tales tareas requieren implementar memorias asociativas específicas de estímulo en las que solo unas pocas neuronas de una población responden a cualquier estímulo dado y cada neurona responde solo a unos pocos estímulos de todos los estímulos posibles.

El trabajo teórico sobre la memoria distribuida escasa ha sugerido que la codificación escasa aumenta la capacidad de la memoria asociativa al reducir la superposición entre representaciones. [68] Experimentalmente, se han observado escasas representaciones de información sensorial en muchos sistemas, incluidos la visión, [69] audición, [70] tacto, [71] y olfato. [72] Sin embargo, a pesar de la evidencia acumulada de una codificación dispersa generalizada y de argumentos teóricos sobre su importancia, ha sido difícil obtener una demostración de que la codificación escasa mejora la especificidad del estímulo de la memoria asociativa.

En el Drosophila sistema olfativo, se cree que la codificación de olores dispersos por las células de Kenyon del cuerpo del hongo genera una gran cantidad de ubicaciones direccionables con precisión para el almacenamiento de recuerdos específicos de olores. [73] La escasez se controla mediante un circuito de retroalimentación negativa entre las células de Kenyon y las neuronas laterales apareadas anteriores (APL) GABAérgicas. La activación y el bloqueo sistemáticos de cada tramo de este circuito de retroalimentación muestra que las células de Kenyon activan las neuronas APL y las neuronas APL inhiben las células de Kenyon. La interrupción del ciclo de retroalimentación de células de Kenyon-APL disminuye la escasez de respuestas de olor de las células de Kenyon, aumenta las correlaciones entre olores y evita que las moscas aprendan a discriminar olores similares, pero no diferentes. Estos resultados sugieren que la inhibición por retroalimentación suprime la actividad de las células de Kenyon para mantener una codificación de olor escasa y descorrelacionada y, por lo tanto, la especificidad de olor de los recuerdos. [74]


Ver el vídeo: Velocidad de Transmisión, Señal y Propagación. (Febrero 2023).