Información

¿Cuál es la diferencia entre neurociencia computacional, neurociencia teórica y neuroinformática (si existe)?

¿Cuál es la diferencia entre neurociencia computacional, neurociencia teórica y neuroinformática (si existe)?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

En particular, la neurociencia teórica y computacional parecen ser sinónimos entre sí. La neuroinformática, al menos, parece ocuparse un poco más de resolver las cosas numéricamente y del uso y creación de algoritmos y programas.


No hay diferencia entre "neurociencia computacional" y "neurociencia teórica" ​​en la práctica. Los dos casi siempre se usan indistintamente.

La neuroinformática, como la bioinformática, se trata más de administrar datos y diseñar software de análisis (que siempre está integrado de alguna manera con el almacenamiento y la administración de datos). Generalmente, se trata de especialistas en información que trabajan en neuroinformática, ya que es básicamente ciencia de la información aplicada (aplicada a la neurociencia, en concreto). De alguna manera, la neuroinformática puede servir de puente entre el experimentalista y el teórico. Los experimentales usan software neuroinformático para analizar y guardar sus datos y almacenar sus resultados ... luego los teóricos pueden tomar eso y hacer un modelo, luego la informática puede diseñar un nuevo programa que incorpore el modelo para ayudar a los experimentalistas a analizar sus datos. Esta es una simplificación muy ideal, pero da una idea de cómo se enfrentan los tres.


Se hace un gráfico computacional del nodo donde se realiza la "operación" sobre las variables entrantes. (ver el primer párrafo del enlace hecho en OP)

Una red neuronal utiliza un modelo de perceptrón o "neurona" para cada nodo. un ejemplo genérico de modelo de neurona es: Cada valor entrante se multiplica por un peso "sináptico", luego se suman y el resultado se pasa a una función de activación. Lo que dará un resultado de salida que podría proyectarse en los siguientes nodos. Neural Network puede "aprender" adaptando pesos sinápticos gracias a métodos como la retropropagación o la alineación de retroalimentación directa.

Cualquier gráfico computacional en el que los nodos no sean una especie de modelo de neurona / perceptrón no es una red neuronal.


Contenido

El principio conexionista central es que los fenómenos mentales pueden describirse mediante redes interconectadas de unidades simples y, a menudo, uniformes. La forma de las conexiones y las unidades pueden variar de un modelo a otro. Por ejemplo, las unidades de la red podrían representar neuronas y las conexiones podrían representar sinapsis, como en el cerebro humano.

Difundir la activación Editar

En la mayoría de los modelos conexionistas, las redes cambian con el tiempo. Un aspecto muy común y estrechamente relacionado de los modelos conexionistas es activación. En cualquier momento, una unidad en la red tiene una activación, que es un valor numérico destinado a representar algún aspecto de la unidad. Por ejemplo, si las unidades del modelo son neuronas, la activación podría representar la probabilidad de que la neurona genere un pico de potencial de acción. La activación normalmente se extiende a todas las demás unidades conectadas a él. Difundir la activación es siempre una característica de los modelos de redes neuronales, y es muy común en los modelos conexionistas utilizados por los psicólogos cognitivos.

Redes neuronales Editar

Las redes neuronales son, con mucho, el modelo conexionista más utilizado en la actualidad. Aunque existe una gran variedad de modelos de redes neuronales, casi siempre siguen dos principios básicos con respecto a la mente:

  1. Cualquier estado mental puede describirse como un vector (N) -dimensional de valores de activación numéricos sobre unidades neuronales en una red.
  2. La memoria se crea modificando la fuerza de las conexiones entre las unidades neuronales. Las fuerzas de conexión, o "pesos", se representan generalmente como una matriz N × N.

La mayor parte de la variedad entre los modelos de redes neuronales proviene de:

  • Interpretación de unidades: Las unidades se pueden interpretar como neuronas o grupos de neuronas.
  • Definición de activación: La activación se puede definir de varias formas. Por ejemplo, en una máquina de Boltzmann, la activación se interpreta como la probabilidad de generar un pico de potencial de acción y se determina mediante una función logística sobre la suma de las entradas a una unidad.
  • Algoritmo de aprendizaje: Las diferentes redes modifican sus conexiones de manera diferente. En general, cualquier cambio definido matemáticamente en los pesos de conexión a lo largo del tiempo se denomina "algoritmo de aprendizaje".

Los conexionistas están de acuerdo en que las redes neuronales recurrentes (redes dirigidas en las que las conexiones de la red pueden formar un ciclo dirigido) son un mejor modelo del cerebro que las redes neuronales feedforward (redes dirigidas sin ciclos, llamadas DAG). Muchos modelos conexionistas recurrentes también incorporan la teoría de sistemas dinámicos. Muchos investigadores, como el conexionista Paul Smolensky, han argumentado que los modelos conexionistas evolucionarán hacia enfoques de sistemas dinámicos, totalmente continuos, de alta dimensión, no lineales.

Realismo biológico Editar

El trabajo conexionista en general no necesita ser biológicamente realista y, por lo tanto, adolece de una falta de plausibilidad neurocientífica. [4] [5] [6] [7] [8] [9] [10] Sin embargo, la estructura de las redes neuronales se deriva de la de las neuronas biológicas, y este paralelo en la estructura de bajo nivel a menudo se argumenta que es un ventaja del conexionismo en el modelado de estructuras cognitivas en comparación con otros enfoques. [3] Un área donde se piensa que los modelos conexionistas son biológicamente inverosímiles es con respecto a las redes de propagación de errores que son necesarias para apoyar el aprendizaje, [11] [12] pero la propagación de errores puede explicar parte de la actividad eléctrica generada biológicamente que se observa en el cuero cabelludo en potenciales relacionados con eventos como el N400 y el P600, [13] y esto proporciona algún apoyo biológico para uno de los supuestos clave de los procedimientos de aprendizaje conexionistas.

Aprendizaje Editar

Los pesos en una red neuronal se ajustan de acuerdo con alguna regla o algoritmo de aprendizaje, como el aprendizaje de Hebb. Por lo tanto, los conexionistas han creado muchos procedimientos de aprendizaje sofisticados para las redes neuronales. El aprendizaje siempre implica modificar los pesos de conexión. En general, estos involucran fórmulas matemáticas para determinar el cambio en los pesos cuando se dan conjuntos de datos que consisten en vectores de activación para algún subconjunto de las unidades neuronales. Varios estudios se han centrado en diseñar métodos de enseñanza-aprendizaje basados ​​en el conexionismo. [14]

Al formalizar el aprendizaje de esta manera, los conexionistas tienen muchas herramientas. Una estrategia muy común en los métodos de aprendizaje conexionista es incorporar el descenso de gradiente sobre una superficie de error en un espacio definido por la matriz de ponderaciones. Todo aprendizaje de descenso de gradiente en modelos conexionistas implica cambiar cada peso por la derivada parcial de la superficie de error con respecto al peso. La retropropagación (BP), que se hizo popular por primera vez en la década de 1980, es probablemente el algoritmo de descenso de gradiente conexionista más conocido en la actualidad. [12]

El conexionismo se remonta a ideas de más de un siglo de antigüedad, que eran poco más que especulaciones hasta mediados y finales del siglo XX.

Procesamiento distribuido paralelo Editar

El enfoque conexionista predominante en la actualidad se conocía originalmente como procesamiento distribuido en paralelo (PDP). Fue un enfoque de red neuronal artificial que enfatizó la naturaleza paralela del procesamiento neuronal y la naturaleza distribuida de las representaciones neuronales. Proporcionó un marco matemático general para que los investigadores operaran. El marco incluía ocho aspectos principales:

  • Un conjunto de unidades de procesamiento, representado por un conjunto de números enteros.
  • Un activación para cada unidad, representada por un vector de funciones dependientes del tiempo.
  • Un función de salida para cada unidad, representada por un vector de funciones sobre las activaciones.
  • A patrón de conectividad entre unidades, representadas por una matriz de números reales que indican la fuerza de la conexión.
  • A regla de propagación difundir las activaciones a través de las conexiones, representadas por una función en la salida de las unidades.
  • Un regla de activación para combinar entradas a una unidad para determinar su nueva activación, representada por una función sobre la activación y propagación actual.
  • A regla de aprendizaje para modificar conexiones basadas en la experiencia, representado por un cambio en los pesos basados ​​en cualquier número de variables.
  • Un medio ambiente que proporciona experiencia al sistema, representada por conjuntos de vectores de activación para algún subconjunto de unidades.

Gran parte de la investigación que condujo al desarrollo de PDP se realizó en la década de 1970, pero la PDP se hizo popular en la década de 1980 con el lanzamiento de los libros. Procesamiento distribuido paralelo: exploraciones en la microestructura de la cognición - Volumen 1 (fundamentos) y Volumen 2 (Modelos psicológicos y biológicos), por James L. McClelland, David E. Rumelhart y el Grupo de Investigación de PDP. Los libros ahora se consideran trabajos seminales conexionistas, y ahora es común equiparar completamente el PDP y el conexionismo, aunque el término "conexionismo" no se usa en los libros. Siguiendo el modelo PDP, los investigadores han teorizado sistemas basados ​​en los principios del procesamiento distribuido perpendicular (PDP).

Trabajo anterior Editar

Las raíces directas del PDP fueron las teorías del perceptrón de investigadores como Frank Rosenblatt de las décadas de 1950 y 1960. Pero los modelos de perceptrón se hicieron muy impopulares por el libro Perceptrones por Marvin Minsky y Seymour Papert, publicado en 1969. Demostró los límites en el tipo de funciones que los perceptrones de una sola capa (sin capa oculta) pueden calcular, mostrando que incluso funciones simples como la disyunción exclusiva (XOR) no podían manejarse adecuadamente . Los libros de PDP superaron esta limitación al mostrar que las redes neuronales no lineales de varios niveles eran mucho más robustas y podían usarse para una amplia gama de funciones. [15]

Muchos investigadores anteriores defendieron modelos de estilo conexionista, por ejemplo, en las décadas de 1940 y 1950, Warren McCulloch y Walter Pitts (neurona MP), Donald Olding Hebb y Karl Lashley. McCulloch y Pitts mostraron cómo los sistemas neuronales podrían implementar la lógica de primer orden: su artículo clásico "Un cálculo lógico de ideas inmanentes en la actividad nerviosa" (1943) es importante en este desarrollo aquí. Fueron influenciados por la importante obra de Nicolas Rashevsky en la década de 1930. Hebb contribuyó en gran medida a las especulaciones sobre el funcionamiento neuronal y propuso un principio de aprendizaje, el aprendizaje de Hebb, que todavía se utiliza en la actualidad. Lashley defendió las representaciones distribuidas como resultado de su incapacidad para encontrar algo parecido a un engrama localizado en años de experimentos con lesiones.

El conexionismo aparte del PDP Editar

Aunque el PDP es la forma dominante de conexionismo, otros trabajos teóricos también deberían clasificarse como conexionistas.

Muchos principios conexionistas se remontan a trabajos tempranos en psicología, como el de William James. [16] Las teorías psicológicas basadas en el conocimiento del cerebro humano estaban de moda a finales del siglo XIX. Ya en 1869, el neurólogo John Hughlings Jackson defendía sistemas distribuidos de varios niveles. Siguiendo esta pista, Herbert Spencer Principios de psicología, 3a edición (1872), y Sigmund Freud Proyecto de Psicología Científica (compuesto en 1895) propuso teorías conexionistas o protononeccionistas. Estas tendían a ser teorías especulativas. Pero a principios del siglo XX, Edward Thorndike estaba experimentando con el aprendizaje que postulaba una red de tipo conexionista.

Friedrich Hayek concibió de forma independiente el modelo de aprendizaje de sinapsis de Hebb en un artículo presentado en 1920 y desarrolló ese modelo en la teoría del cerebro global constituida por redes de sinapsis de Hebb que se construyen en sistemas más grandes de mapas y redes de memoria [ cita necesaria ]. El trabajo revolucionario de Hayek fue citado por Frank Rosenblatt en su artículo de perceptron.

Otra forma de modelo conexionista fue el marco de redes relacionales desarrollado por el lingüista Sydney Lamb en la década de 1960. Las redes relacionales solo han sido utilizadas por lingüistas y nunca se unificaron con el enfoque de PDP. Como resultado, ahora son utilizados por muy pocos investigadores.

También existen modelos conexionistas híbridos, que en su mayoría mezclan representaciones simbólicas con modelos de redes neuronales. El enfoque híbrido ha sido defendido por algunos investigadores (como Ron Sun).

A medida que el conexionismo se hizo cada vez más popular a fines de la década de 1980, algunos investigadores (incluidos Jerry Fodor, Steven Pinker y otros) reaccionaron contra él. Argumentaron que el conexionismo, tal como se estaba desarrollando, amenazaba con borrar lo que veían como el progreso que se estaba logrando en los campos de la ciencia cognitiva y la psicología mediante el enfoque clásico del computacionalismo. El computacionalismo es una forma específica de cognitivismo que sostiene que la actividad mental es computacional, es decir, que la mente opera realizando operaciones puramente formales sobre símbolos, como una máquina de Turing. Algunos investigadores argumentaron que la tendencia del conexionismo representó una reversión hacia el asociacionismo y el abandono de la idea de un lenguaje de pensamiento, algo que vieron como erróneo. Por el contrario, esas mismas tendencias hicieron que el conexionismo fuera atractivo para otros investigadores.

El conexionismo y el computacionalismo no tienen por qué estar reñidos, pero el debate de finales de los 80 y principios de los 90 llevó a la oposición entre los dos enfoques. A lo largo del debate, algunos investigadores han argumentado que el conexionismo y el computacionalismo son totalmente compatibles, aunque no se ha alcanzado un consenso total sobre este tema. Las diferencias entre los dos enfoques incluyen lo siguiente:

  • Los computacionalistas postulan modelos simbólicos que son estructuralmente similares a la estructura cerebral subyacente, mientras que los conexionistas se involucran en modelos de "bajo nivel", tratando de asegurarse de que sus modelos se asemejen a estructuras neurológicas.
  • Los computacionalistas en general se enfocan en la estructura de símbolos explícitos (modelos mentales) y reglas sintácticas para su manipulación interna, mientras que los conexionistas se enfocan en aprender de los estímulos ambientales y almacenar esta información en una forma de conexiones entre neuronas.
  • Los computacionalistas creen que la actividad mental interna consiste en la manipulación de símbolos explícitos, mientras que los conexionistas creen que la manipulación de símbolos explícitos proporciona un modelo pobre de actividad mental.
  • Los computacionalistas a menudo postulan subsistemas simbólicos específicos de dominio diseñados para apoyar el aprendizaje en áreas específicas de la cognición (por ejemplo, lenguaje, intencionalidad, número), mientras que los conexionistas postulan uno o un pequeño conjunto de mecanismos de aprendizaje muy generales.

A pesar de estas diferencias, algunos teóricos han propuesto que la arquitectura conexionista es simplemente la forma en que los cerebros orgánicos implementan el sistema de manipulación de símbolos. Esto es lógicamente posible, ya que es bien sabido que los modelos conexionistas pueden implementar sistemas de manipulación de símbolos del tipo utilizado en los modelos computacionalistas, [17] como de hecho deben ser capaces de explicar la capacidad humana para realizar tareas de manipulación de símbolos. . Se han propuesto varios modelos cognitivos que combinan arquitecturas de manipulación de símbolos y conexionistas, en particular entre ellos la Arquitectura cognitiva simbólica / conexionista integrada (ICS) de Paul Smolensky. [1] [18] Pero el debate se basa en si esta manipulación de símbolos forma la base de la cognición en general, por lo que esta no es una reivindicación potencial del computacionalismo. No obstante, las descripciones computacionales pueden ser útiles descripciones de alto nivel de la cognición de la lógica, por ejemplo.

El debate se centró en gran medida en argumentos lógicos sobre si las redes conexionistas podían producir la estructura sintáctica observada en este tipo de razonamiento. Esto se logró más tarde, aunque utilizando capacidades de vinculación de variables rápidas fuera de las asumidas de forma estándar en los modelos conexionistas. [17] [19]

Parte del atractivo de las descripciones computacionales es que son relativamente fáciles de interpretar y, por lo tanto, puede considerarse que contribuyen a nuestra comprensión de procesos mentales particulares, mientras que los modelos conexionistas son en general más opacos, en la medida en que pueden describirse solo en términos muy generales (como especificar el algoritmo de aprendizaje, el número de unidades, etc.), o en términos de bajo nivel que no ayudan. En este sentido, los modelos conexionistas pueden instanciar y, por lo tanto, proporcionar evidencia de una teoría amplia de la cognición (es decir, conexionismo), sin representar una teoría útil del proceso particular que se está modelando. En este sentido, podría considerarse que el debate refleja en cierta medida una mera diferencia en el nivel de análisis en el que se enmarcan teorías particulares. Algunos investigadores sugieren que la brecha de análisis es consecuencia de mecanismos conexionistas que dan lugar a fenómenos emergentes que pueden describirse en términos computacionales. [20]

El reciente [ ¿Cuándo? ] La popularidad de los sistemas dinámicos en la filosofía de la mente ha agregado una nueva perspectiva al debate de algunos autores [ ¿cuales? ] ahora argumentan que cualquier división entre conexionismo y computacionalismo se caracteriza de manera más concluyente como una división entre computacionalismo y sistemas dinámicos.

En 2014, Alex Graves y otros de DeepMind publicaron una serie de artículos que describen una estructura novedosa de Red Neural Profunda llamada Neural Turing Machine [21] capaz de leer símbolos en una cinta y almacenar símbolos en la memoria. Relational Networks, otro módulo de Deep Network publicado por DeepMind, puede crear representaciones similares a objetos y manipularlas para responder preguntas complejas. Las redes relacionales y las máquinas neuronales de Turing son una prueba más de que el conexionismo y el computacionalismo no tienen por qué estar reñidos.


Contenido

El principio conexionista central es que los fenómenos mentales pueden describirse mediante redes interconectadas de unidades simples y, a menudo, uniformes. La forma de las conexiones y las unidades pueden variar de un modelo a otro. Por ejemplo, las unidades de la red podrían representar neuronas y las conexiones podrían representar sinapsis, como en el cerebro humano.

Difundir la activación Editar

En la mayoría de los modelos conexionistas, las redes cambian con el tiempo. Un aspecto estrechamente relacionado y muy común de los modelos conexionistas es activación. En cualquier momento, una unidad en la red tiene una activación, que es un valor numérico destinado a representar algún aspecto de la unidad. Por ejemplo, si las unidades del modelo son neuronas, la activación podría representar la probabilidad de que la neurona genere un pico de potencial de acción. La activación normalmente se extiende a todas las demás unidades conectadas a él. Difundir la activación es siempre una característica de los modelos de redes neuronales, y es muy común en los modelos conexionistas utilizados por los psicólogos cognitivos.

Redes neuronales Editar

Las redes neuronales son, con mucho, el modelo conexionista más utilizado en la actualidad. Aunque existe una gran variedad de modelos de redes neuronales, casi siempre siguen dos principios básicos con respecto a la mente:

  1. Cualquier estado mental puede describirse como un vector (N) -dimensional de valores de activación numéricos sobre unidades neuronales en una red.
  2. La memoria se crea modificando la fuerza de las conexiones entre las unidades neuronales. Las fuerzas de conexión, o "pesos", se representan generalmente como una matriz N × N.

La mayor parte de la variedad entre los modelos de redes neuronales proviene de:

  • Interpretación de unidades: Las unidades se pueden interpretar como neuronas o grupos de neuronas.
  • Definición de activación: La activación se puede definir de varias formas. Por ejemplo, en una máquina de Boltzmann, la activación se interpreta como la probabilidad de generar un pico de potencial de acción y se determina mediante una función logística sobre la suma de las entradas a una unidad.
  • Algoritmo de aprendizaje: Las diferentes redes modifican sus conexiones de manera diferente. En general, cualquier cambio definido matemáticamente en los pesos de conexión a lo largo del tiempo se denomina "algoritmo de aprendizaje".

Los conexionistas están de acuerdo en que las redes neuronales recurrentes (redes dirigidas en las que las conexiones de la red pueden formar un ciclo dirigido) son un mejor modelo del cerebro que las redes neuronales feedforward (redes dirigidas sin ciclos, llamadas DAG). Muchos modelos conexionistas recurrentes también incorporan la teoría de sistemas dinámicos. Muchos investigadores, como el conexionista Paul Smolensky, han argumentado que los modelos conexionistas evolucionarán hacia enfoques de sistemas dinámicos, totalmente continuos, de alta dimensión, no lineales.

Realismo biológico Editar

El trabajo conexionista en general no necesita ser biológicamente realista y, por lo tanto, adolece de una falta de plausibilidad neurocientífica. [4] [5] [6] [7] [8] [9] [10] Sin embargo, la estructura de las redes neuronales se deriva de la de las neuronas biológicas, y este paralelo en la estructura de bajo nivel a menudo se argumenta que es un ventaja del conexionismo en el modelado de estructuras cognitivas en comparación con otros enfoques. [3] Un área donde se piensa que los modelos conexionistas son biológicamente inverosímiles es con respecto a las redes de propagación de errores que son necesarias para apoyar el aprendizaje, [11] [12] pero la propagación de errores puede explicar parte de la actividad eléctrica generada biológicamente que se observa en el cuero cabelludo en potenciales relacionados con eventos como el N400 y el P600, [13] y esto proporciona algún apoyo biológico para uno de los supuestos clave de los procedimientos de aprendizaje conexionistas.

Aprendizaje Editar

Los pesos en una red neuronal se ajustan de acuerdo con alguna regla o algoritmo de aprendizaje, como el aprendizaje de Hebb. Por lo tanto, los conexionistas han creado muchos procedimientos de aprendizaje sofisticados para las redes neuronales. El aprendizaje siempre implica modificar los pesos de conexión. En general, estos involucran fórmulas matemáticas para determinar el cambio en los pesos cuando se dan conjuntos de datos que consisten en vectores de activación para algún subconjunto de las unidades neuronales. Varios estudios se han centrado en diseñar métodos de enseñanza-aprendizaje basados ​​en el conexionismo. [14]

Al formalizar el aprendizaje de esta manera, los conexionistas tienen muchas herramientas. Una estrategia muy común en los métodos de aprendizaje conexionista es incorporar el descenso de gradiente sobre una superficie de error en un espacio definido por la matriz de ponderaciones. Todo aprendizaje de descenso de gradiente en modelos conexionistas implica cambiar cada peso por la derivada parcial de la superficie de error con respecto al peso. La retropropagación (BP), que se hizo popular por primera vez en la década de 1980, es probablemente el algoritmo de descenso de gradiente conexionista más conocido en la actualidad. [12]

El conexionismo se remonta a ideas de más de un siglo de antigüedad, que eran poco más que especulaciones hasta mediados y finales del siglo XX.

Procesamiento distribuido paralelo Editar

El enfoque conexionista predominante en la actualidad se conoció originalmente como procesamiento distribuido en paralelo (PDP). Fue un enfoque de red neuronal artificial que enfatizó la naturaleza paralela del procesamiento neuronal y la naturaleza distribuida de las representaciones neuronales. Proporcionó un marco matemático general para que los investigadores operaran. El marco incluía ocho aspectos principales:

  • Un conjunto de unidades de procesamiento, representado por un conjunto de números enteros.
  • Un activación para cada unidad, representada por un vector de funciones dependientes del tiempo.
  • Un función de salida para cada unidad, representada por un vector de funciones sobre las activaciones.
  • A patrón de conectividad entre unidades, representadas por una matriz de números reales que indican la fuerza de la conexión.
  • A regla de propagación difundir las activaciones a través de las conexiones, representadas por una función en la salida de las unidades.
  • Un regla de activación para combinar entradas a una unidad para determinar su nueva activación, representada por una función sobre la activación y propagación actual.
  • A regla de aprendizaje para modificar conexiones basadas en la experiencia, representado por un cambio en los pesos basados ​​en cualquier número de variables.
  • Un medio ambiente que proporciona experiencia al sistema, representada por conjuntos de vectores de activación para algún subconjunto de unidades.

Gran parte de la investigación que condujo al desarrollo de PDP se realizó en la década de 1970, pero la PDP se hizo popular en la década de 1980 con el lanzamiento de los libros. Procesamiento distribuido paralelo: exploraciones en la microestructura de la cognición - Volumen 1 (fundamentos) y Volumen 2 (Modelos psicológicos y biológicos), por James L. McClelland, David E. Rumelhart y el Grupo de Investigación de PDP. Los libros ahora se consideran trabajos seminales conexionistas, y ahora es común equiparar completamente el PDP y el conexionismo, aunque el término "conexionismo" no se usa en los libros. Siguiendo el modelo PDP, los investigadores han teorizado sistemas basados ​​en los principios del procesamiento distribuido perpendicular (PDP).

Trabajo anterior Editar

Las raíces directas del PDP fueron las teorías del perceptrón de investigadores como Frank Rosenblatt de las décadas de 1950 y 1960. Pero los modelos de perceptrón se hicieron muy impopulares por el libro Perceptrones por Marvin Minsky y Seymour Papert, publicado en 1969. Demostró los límites en el tipo de funciones que los perceptrones de una sola capa (sin capa oculta) pueden calcular, mostrando que incluso funciones simples como la disyunción exclusiva (XOR) no podían manejarse adecuadamente . Los libros de PDP superaron esta limitación al mostrar que las redes neuronales no lineales de niveles múltiples eran mucho más robustas y podían usarse para una amplia gama de funciones. [15]

Muchos investigadores anteriores defendieron modelos de estilo conexionista, por ejemplo, en las décadas de 1940 y 1950, Warren McCulloch y Walter Pitts (neurona MP), Donald Olding Hebb y Karl Lashley. McCulloch y Pitts mostraron cómo los sistemas neuronales podrían implementar la lógica de primer orden: su artículo clásico "Un cálculo lógico de ideas inmanentes en la actividad nerviosa" (1943) es importante en este desarrollo aquí. Fueron influenciados por la importante obra de Nicolas Rashevsky en la década de 1930. Hebb contribuyó en gran medida a las especulaciones sobre el funcionamiento neuronal y propuso un principio de aprendizaje, el aprendizaje de Hebb, que todavía se utiliza en la actualidad. Lashley defendió las representaciones distribuidas como resultado de su incapacidad para encontrar algo parecido a un engrama localizado en años de experimentos con lesiones.

El conexionismo aparte del PDP Editar

Aunque el PDP es la forma dominante de conexionismo, otros trabajos teóricos también deberían clasificarse como conexionistas.

Muchos principios conexionistas se remontan a trabajos tempranos en psicología, como el de William James. [16] Las teorías psicológicas basadas en el conocimiento del cerebro humano estaban de moda a finales del siglo XIX. Ya en 1869, el neurólogo John Hughlings Jackson defendía sistemas distribuidos de varios niveles. Siguiendo esta pista, Herbert Spencer Principios de psicología, 3a edición (1872), y Sigmund Freud Proyecto de Psicología Científica (compuesto en 1895) proponía teorías conexionistas o protononeccionistas. Estas tendían a ser teorías especulativas. Pero a principios del siglo XX, Edward Thorndike estaba experimentando con el aprendizaje que postulaba una red de tipo conexionista.

Friedrich Hayek concibió de forma independiente el modelo de aprendizaje de la sinapsis de Hebb en un artículo presentado en 1920 y desarrolló ese modelo en la teoría del cerebro global constituida por redes de sinapsis de Hebb que se construyen en sistemas más grandes de mapas y redes de memoria [ cita necesaria ]. El trabajo revolucionario de Hayek fue citado por Frank Rosenblatt en su artículo de perceptron.

Otra forma de modelo conexionista fue el marco de redes relacionales desarrollado por el lingüista Sydney Lamb en la década de 1960. Las redes relacionales solo han sido utilizadas por lingüistas y nunca se unificaron con el enfoque de PDP. Como resultado, ahora son utilizados por muy pocos investigadores.

También existen modelos conexionistas híbridos, que en su mayoría mezclan representaciones simbólicas con modelos de redes neuronales. El enfoque híbrido ha sido defendido por algunos investigadores (como Ron Sun).

A medida que el conexionismo se hizo cada vez más popular a fines de la década de 1980, algunos investigadores (incluidos Jerry Fodor, Steven Pinker y otros) reaccionaron contra él. Argumentaron que el conexionismo, tal como se estaba desarrollando en ese momento, amenazaba con borrar lo que consideraban el progreso realizado en los campos de la ciencia cognitiva y la psicología mediante el enfoque clásico del computacionalismo. El computacionalismo es una forma específica de cognitivismo que sostiene que la actividad mental es computacional, es decir, que la mente opera realizando operaciones puramente formales sobre símbolos, como una máquina de Turing. Algunos investigadores argumentaron que la tendencia del conexionismo representó una reversión hacia el asociacionismo y el abandono de la idea de un lenguaje de pensamiento, algo que vieron como erróneo. Por el contrario, esas mismas tendencias hicieron que el conexionismo fuera atractivo para otros investigadores.

El conexionismo y el computacionalismo no tienen por qué estar reñidos, pero el debate de finales de los 80 y principios de los 90 llevó a la oposición entre los dos enfoques. A lo largo del debate, algunos investigadores han argumentado que el conexionismo y el computacionalismo son totalmente compatibles, aunque no se ha alcanzado un consenso total sobre este tema. Las diferencias entre los dos enfoques incluyen lo siguiente:

  • Los computacionalistas postulan modelos simbólicos que son estructuralmente similares a la estructura cerebral subyacente, mientras que los conexionistas se involucran en modelos de "bajo nivel", tratando de asegurarse de que sus modelos se asemejen a estructuras neurológicas.
  • Los computacionalistas en general se enfocan en la estructura de símbolos explícitos (modelos mentales) y reglas sintácticas para su manipulación interna, mientras que los conexionistas se enfocan en aprender de los estímulos ambientales y almacenar esta información en una forma de conexiones entre neuronas.
  • Los computacionalistas creen que la actividad mental interna consiste en la manipulación de símbolos explícitos, mientras que los conexionistas creen que la manipulación de símbolos explícitos proporciona un modelo pobre de actividad mental.
  • Los computacionalistas a menudo postulan subsistemas simbólicos específicos de dominio diseñados para apoyar el aprendizaje en áreas específicas de la cognición (por ejemplo, lenguaje, intencionalidad, número), mientras que los conexionistas postulan uno o un pequeño conjunto de mecanismos de aprendizaje muy generales.

A pesar de estas diferencias, algunos teóricos han propuesto que la arquitectura conexionista es simplemente la forma en que los cerebros orgánicos implementan el sistema de manipulación de símbolos. Esto es lógicamente posible, ya que es bien sabido que los modelos conexionistas pueden implementar sistemas de manipulación de símbolos del tipo utilizado en los modelos computacionalistas, [17] como de hecho deben ser capaces de explicar la capacidad humana para realizar tareas de manipulación de símbolos. . Se han propuesto varios modelos cognitivos que combinan arquitecturas tanto manipuladoras de símbolos como conexionistas, en particular, entre ellos la Arquitectura cognitiva simbólica / conexionista integrada (ICS) de Paul Smolensky. [1] [18] Pero el debate se basa en si esta manipulación de símbolos forma la base de la cognición en general, por lo que esta no es una reivindicación potencial del computacionalismo. No obstante, las descripciones computacionales pueden ser útiles descripciones de alto nivel de la cognición de la lógica, por ejemplo.

El debate se centró en gran medida en argumentos lógicos sobre si las redes conexionistas podían producir la estructura sintáctica observada en este tipo de razonamiento. Esto se logró más tarde, aunque utilizando capacidades de vinculación de variables rápidas fuera de las asumidas de manera estándar en los modelos conexionistas. [17] [19]

Parte del atractivo de las descripciones computacionales es que son relativamente fáciles de interpretar y, por lo tanto, puede considerarse que contribuyen a nuestra comprensión de procesos mentales particulares, mientras que los modelos conexionistas son en general más opacos, en la medida en que pueden describirse solo en very general terms (such as specifying the learning algorithm, the number of units, etc.), or in unhelpfully low-level terms. In this sense connectionist models may instantiate, and thereby provide evidence for, a broad theory of cognition (i.e., connectionism), without representing a helpful theory of the particular process that is being modelled. In this sense the debate might be considered as to some extent reflecting a mere difference in the level of analysis in which particular theories are framed. Some researchers suggest that the analysis gap is the consequence of connectionist mechanisms giving rise to emergent phenomena that may be describable in computational terms. [20]

The recent [ ¿Cuándo? ] popularity of dynamical systems in philosophy of mind have added a new perspective on the debate some authors [ which? ] now argue that any split between connectionism and computationalism is more conclusively characterized as a split between computationalism and dynamical systems.

In 2014, Alex Graves and others from DeepMind published a series of papers describing a novel Deep Neural Network structure called the Neural Turing Machine [21] able to read symbols on a tape and store symbols in memory. Relational Networks, another Deep Network module published by DeepMind are able to create object-like representations and manipulate them to answer complex questions. Relational Networks and Neural Turing Machines are further evidence that connectionism and computationalism need not be at odds.


Extending Ourselves: Computational Science, Empiricism, and Scientific Method

This book is an excellent philosophical appraisal of the roles played by computers in modern science. It discusses such computational methods as computer simulations, Monte Carlo methods, and agent-based modeling, making many important points about empiricism, realism, and epistemology in general. Its conclusions are defended by a rich set of scientific examples mostly taken from physics. I shall assess the conclusions according to how well they fit with the use of computational models in the two fields in which I have employed them myself, psychology and neuroscience.

Here are what seem to me to be the most important conclusions for which Humphreys argues. Scientific knowledge is not limited to what human senses can provide, because the senses can be augmented by instruments and new forms of mathematics. Instruments are property detectors, and we often have good grounds for believing that they succeed in detecting properties not directly observable. Just as instruments extend human observation, so computability extends the realm of mathematical representations. Physical science requires tractable mathematics to provide the connection between theory and application, and computation increasingly provides such mathematics because calculations are too complex to be conducted by humans alone. Computational models may be literally false, but they may still capture much about observed phenomena. Simulations are widely used to explore mathematical models that are analytically intractable. None of the favorite syntactic or semantic representations of philosophers capture what simulations do. Computer simulations have many advantages, including reduction in the degree of idealization required in a model, and greater flexibility, precision and replicability in its application. Computational devices are the numerical analogues of empirical instruments. The use of simple mechanisms is acceptable for purposes of understanding only if there is good reason to hold that they correspond to genuine features of the systems under investigation. Computer models can be hindered by "epistemic opacity" when a computational process is too fast for humans to follow in detail, or when there is no explicit algorithm linking inputs to outputs.

Humphreys defends these conclusions mostly with examples from research in physics, but they also fit well with current practice in the cognitive sciences. Psychology and neuroscience both go well beyond what the senses can provide, thanks to instrumental techniques such as reaction-time measurements, single-cell recordings, electroencephalography, positron-emission tomography, and magnetic-resonance imaging. Such techniques provide much deeper information about how minds and brains work than introspective observations, and often provide strong evidence that introspection is unreliable. For example, people's reports that they are not racially prejudiced are sometimes contradicted by reaction-time experiments that show that they associate particular races with negative stereotypes, and by brain-scanning experiments that identify strong activation of fear mechanisms in response to pictures of people of particular races. Cognitive science is at its strongest when behavioral evidence meshes with evidence from neurological science. When such meshing occurs, we can have reasonable grounds to believe that instruments are detecting properties that introspection would never identify.

Just as experiments extend observation, computation extends calculation in cognitive science. Unlike theories in physics, theories in psychology and neuroscience rarely take the form of small sets of equations like Newton's laws of motion and gravitation. Rather, they consist of specification of mechanisms consisting of relations and interactions among the objects that lead to systematic changes. In theoretical psychology for most of the past 40 years, the key objects are mental representations such as rules, concepts, and images, and the interactions are specified by algorithmic computational procedures. In theoretical neuroscience, the key objects are neurons and neural groups, and the interactions are specified by biological procedures such as excitation and inhibition. In current research, cognitive mechanisms are increasingly being associated with neural ones. The mechanical systems postulated by psychology and neuroscience are far too complicated for their consequences to be worked out by unaided deductions, so that computer simulations are essential to link theories with phenomena, just as Humphreys maintains for physics.

However, there is a crucial difference between computational models in physics and cognitive science. No one thinks that planets or falling objects are actually doing computation. Rather, computational models are useful for deriving the consequences of the mathematical formulae that describe the behavior of planets and falling objects. In cognitive science, models have the same use, but they also have a more central theoretical role, by virtue of the currently dominant view that what minds and brains do is in fact a kind of computation. Theoretical biology appears to be intermediate between physics and cognitive science, in that computer models in evolutionary theory do not describe individuals and species as actually computing, but mechanistic theories in molecular biology sometimes assume that all cells, not just neurons, are computers. If such views are correct, and there are many reasons to believe that they are at least for psychology and neuroscience, then the theoretical role of computation is even larger than the calculation-enhancing role that Humphreys describes for physics.

Psychological and neurological theories are not well characterized syntactically as formulas or semantically as set-theoretical structures rather they are represented cognitively by a variety of mental and external representations that incorporate both syntax and semantics, including visual representations such as diagrams as well as verbal representations. Like maps, computer models do not give a full description of the reality they are supposed to depict, but they can provide good approximations to the most important objects, relations, and interrelations that produce the phenomena they are intended to explain. Computer simulations have all the advantages in cognitive science that Humphreys ascribes to them in physics: flexibility, precision and replicability. Simulations in psychology and neuroscience provide precise ways to characterize the mechanisms hypothesized to produce mental phenomena, and they flexibly allow the replicable determination of the consequences of different variations of those mechanisms. It therefore seems fair to conclude, for cognitive science just as Humphreys does for physics, that computer modeling provides enhancements to human calculation that are analogous to what instrumentation provides to human observation.

Humphreys seems to have doubts about some of the uses of computer models in economics and psychology, when they use mechanisms too simple or obscure to be plausibly operating in the systems studied. I think these worries are legitimate for much current "agent-based" modeling in economics, in which the agents are even more psychologically impoverished than the ones employed in current microeconomic theories. The solution is to produce computer models of economic groups in which the individuals are much more psychologically realistic in that they possess something of the cognitive and emotional capabilities of the humans they are supposed to model. Similarly, the problem that arose with 1980s-style connectionist models -- that they produced somewhat opaque results through biologically implausible mechanisms such as backpropagation learning algorithms -- is avoided by current neural network models that are much more closely tied to structures and processes that are known to operate in human brains.

Although Humphrey's book is in general an excellent philosophical discussion of the role of computational models in physics, I suspect that even there it underestimates the importance of explanation compared to prediction. In psychological and neuroscience, computation is used in prediction, but the primary role is in explanation by showing how postulated mechanisms can generate phenomena. Similarly, in evolutionary and molecular biology, predictions are rather fairly rare, but explanations abound of how complex mechanisms can produce changes in populations, individuals, organs, and cells. Physics is better at making precise predictions than biology or psychology, but it is still concerned with explanation: we want to know por qué the planets go around the sun. However, it is a supplement not a correction to Humphreys' fine book to point out that computer models play a substantial role in explanation as well as calculation


1 Answer 1

They are not interchangeable.

Computational science tends to refer more to HPC, simulation techniques (differential equations, molecular dynamics, etc.), and is usually referred to as scientific computing.

Data science tends to refer to computationally-intensive data analysis, like "big data", bioinformatics, machine learning (optimization), Bayesian analyses using MCMC, etc. I think it's the same as what used to be referred to as computational statistics. It was the infusion of computer science with statistics, but many of the techniques that were developed dropped the rigorous Fisherian "statistical testing" (clustering, cross-validation techniques, data visualization) but kept the data part.

The most clear explanation of it came to me when I was teaching a workshop on Julia for Data Science and Scientific Computing. The data scientists wanted to learn Julia in order to do fast "big data" analysis, i.e. regressions and other GLMs on large data. The computational scientists (scientific computerers?) wanted to know how to easily write code to solve large linear systems on HPCs and GPUs.

Notice those are two ways of saying the exact same computations, but with very different meanings. So in some sense similar, but still distinct (and there is cross-over between the disciplines, like using machine learning to learn parameters for PDEs from data).


a computational graph is made of node where is done "operation" on incoming variables. (see first paragraph from the link done in OP)

A neural network use perceptron or "neuron" model for each node. a generic example of neuron model is : Each incoming value is multiply by a "synaptic" weight, then are sum and the result will be pass to an activation function. Which will give an output result that could be project to next nodes. Neural Network can "learn" by adapting synaptic weights thanks to methods such as backpropagation or direct feedback alignment.

Any computational graph where nodes are not a kind of neuron/perceptron model are not neural network.


Abstracto

Computational Cognitive Neuroscience (CCN) is a new field that lies at the intersection of computational neuroscience, machine learning, and neural network theory (i.e., connectionism). The ideal CCN model should not make any assumptions that are known to contradict the current neuroscience literature and at the same time provide good accounts of behavior and at least some neuroscience data (e.g., single-neuron activity, fMRI data). Furthermore, once set, the architecture of the CCN network and the models of each individual unit should remain fixed throughout all applications. Because of the greater weight they place on biological accuracy, CCN models differ substantially from traditional neural network models in how each individual unit is modeled, how learning is modeled, and how behavior is generated from the network. A variety of CCN solutions to these three problems are described. A real example of this approach is described, and some advantages and limitations of the CCN approach are discussed.

Highlights

► A new field of computational cognitive neuroscience (CCN) is described. ► CCN lies at the intersection of computational neuroscience, machine learning, and neural network theory. ► The ideal CCN model provides good accounts of behavioral and neuroscience data. ► CCN models are more biologically detailed than traditional neural network models.


What is the difference between computational model, model of computation and a computer?

I was browsing the forum where i came by this question, it says that rule 110 from is a computation model.

What is the difference between a computation model and model of computation and how can we relate them to computers ?

A model of computation is the definition of the set of allowable operations used in computation and their respective costs.

what does it mean to 'define the allowable operations used in computation'?

Can we say that rule 110 or cellular Automata in general are computers ?


Access options

Get full journal access for 1 year

All prices are NET prices.
VAT will be added later in the checkout.
Tax calculation will be finalised during checkout.

Get time limited or full article access on ReadCube.

All prices are NET prices.


What is the difference between Computational Linguistics and Natural Language Processing?

On another site, https://cs.stackexchange.com/, I wondered why we had a tag for Computational Linguistics and another for Natural Language Processing? I suggested in meta a merge as I did not seem to me there was enough of a difference to justify two tags (I suggested making them synonyms), none of them being much used. To be honest, though I did some research work in the field, I never thought there was a difference. Some people objecting that these are two distinct scientific fields, I decided to check with the users of this site: https://linguistics.stackexchange.com/users/2129/babou.

Both tags existe here too:

nlp × 93
Natural Language Processing: Computer programming techniques designed to aid in processing human language.

computational-linguistics × 112
A branch of science that uses computers and mathematical methods to construct and investigate linguistic theory. Its technological and algorithmic implementation is called NLP.

Actually, 35 questions (i.e. about 1/3rd for each tag) carry both tags. Some are explicitly about one, and carry the other tag only.

The distinction between the two areas seems to be made, more or less clearly, in the definition of the Computational Linguistics tag. Still, when I look at the tagged questions, I do not really see much difference.

Is there a serious difference? Is it a difference in topics, or a difference in the background of speakers? How well is the difference enforced, whatever it may be? Is it worth maintaining a distinction that is not understood, and is misused, at the risk of creating even more confusion?

I do realize there was a previous non-meta question on this, apparently somewhat abstract questions: What are the fundamental differences between Natural Language Processing and Computational Linguistics?. Whatever the answers, are they supported by the actual use of tags on the site. Aren't they would be differences, rather than a useful classification, effectively perceived by practitionners?

Is the distinction useful, or is it just a nice way of confusing classification and searches with poorly enforced distinctions in terminology?


Contenido

Source: [5] The notion of Computational Intelligence was first used by the IEEE Neural Networks Council in 1990. This Council was founded in the 1980s by a group of researchers interested in the development of biological and artificial neural networks. On November 21, 2001, the IEEE Neural Networks Council became the IEEE Neural Networks Society, to become the IEEE Computational Intelligence Society two years later by including new areas of interest such as fuzzy systems and evolutionary computation, which they related to Computational Intelligence in 2011 (Dote and Ovaska).

But the first clear definition of Computational Intelligence was introduced by Bezdek in 1994: [1] a system is called computationally intelligent if it deals with low-level data such as numerical data, has a pattern-recognition component and does not use knowledge in the AI sense, and additionally when it begins to exhibit computational adaptively, fault tolerance, speed approaching human-like turnaround and error rates that approximate human performance.

Bezdek and Marks (1993) clearly differentiated CI from AI, by arguing that the first one is based on soft computing methods, whereas AI is based on hard computing ones.

Although Artificial Intelligence and Computational Intelligence seek a similar long-term goal: reach general intelligence, which is the intelligence of a machine that could perform any intellectual task that a human being can there's a clear difference between them. According to Bezdek (1994), Computational Intelligence is a subset of Artificial Intelligence.

There are two types of machine intelligence: the artificial one based on hard computing techniques and the computational one based on soft computing methods, which enable adaptation to many situations.

Hard computing techniques work following binary logic based on only two values (the Booleans true or false, 0 or 1) on which modern computers are based. One problem with this logic is that our natural language cannot always be translated easily into absolute terms of 0 and 1. Soft computing techniques, based on fuzzy logic can be useful here. [6] Much closer to the way the human brain works by aggregating data to partial truths (Crisp/fuzzy systems), this logic is one of the main exclusive aspects of CI.

Within the same principles of fuzzy and binary logics follow crispy and fuzzy systems. [7] Crisp logic is a part of artificial intelligence principles and consists of either including an element in a set, or not, whereas fuzzy systems (CI) enable elements to be partially in a set. Following this logic, each element can be given a degree of membership (from 0 to 1) and not exclusively one of these 2 values. [8]

The main applications of Computational Intelligence include computer science, engineering, data analysis and bio-medicine.

Fuzzy logic Edit

As explained before, fuzzy logic, one of CI's main principles, consists in measurements and process modelling made for real life's complex processes. [3] It can face incompleteness, and most importantly ignorance of data in a process model, contrarily to Artificial Intelligence, which requires exact knowledge.

This technique tends to apply to a wide range of domains such as control, image processing and decision making. But it is also well introduced in the field of household appliances with washing machines, microwave ovens, etc. We can face it too when using a video camera, where it helps stabilizing the image while holding the camera unsteadily. Other areas such as medical diagnostics, foreign exchange trading and business strategy selection are apart from this principle's numbers of applications. [1]

Fuzzy logic is mainly useful for approximate reasoning, and doesn't have learning abilities, [1] a qualification much needed that human beings have. [ cita necesaria ] It enables them to improve themselves by learning from their previous mistakes.

Neural networks Edit

This is why CI experts work on the development of artificial neural networks based on the biological ones, which can be defined by 3 main components: the cell-body which processes the information, the axon, which is a device enabling the signal conducting, and the synapse, which controls signals. Therefore, artificial neural networks are doted of distributed information processing systems, [9] enabling the process and the learning from experiential data. Working like human beings, fault tolerance is also one of the main assets of this principle. [1]

Concerning its applications, neural networks can be classified into five groups: data analysis and classification, associative memory, clustering generation of patterns and control. [1] Generally, this method aims to analyze and classify medical data, proceed to face and fraud detection, and most importantly deal with nonlinearities of a system in order to control it. [10] Furthermore, neural networks techniques share with the fuzzy logic ones the advantage of enabling data clustering.

Evolutionary computation Edit

Based on the process of natural selection firstly introduced by Charles Robert Darwin, the evolutionary computation consists in capitalizing on the strength of natural evolution to bring up new artificial evolutionary methodologies. [11] [ page needed ] It also includes other areas such as evolution strategy, and evolutionary algorithms which are seen as problem solvers. This principle's main applications cover areas such as optimization and multi-objective optimization, to which traditional mathematical one techniques aren't enough anymore to apply to a wide range of problems such as DNA Analysis, scheduling problems. [1]

Learning theory Edit

Still looking for a way of "reasoning" close to the humans' one, learning theory is one of the main approaches of CI. In psychology, learning is the process of bringing together cognitive, emotional and environmental effects and experiences to acquire, enhance or change knowledge, skills, values and world views (Ormrod, 1995 Illeris, 2004). [1] Learning theories then helps understanding how these effects and experiences are processed, and then helps making predictions based on previous experience. [12]

Probabilistic methods Edit

Being one of the main elements of fuzzy logic, probabilistic methods firstly introduced by Paul Erdos and Joel Spencer [1] (1974), aim to evaluate the outcomes of a Computation Intelligent system, mostly defined by randomness. [13] Therefore, probabilistic methods bring out the possible solutions to a problem, based on prior knowledge.

According to bibliometrics studies, computational intelligence plays a key role in research. [14] All the major academic publishers are accepting manuscripts in which a combination of Fuzzy logic, neural networks and evolutionary computation is discussed. On the other hand, Computational intelligence isn't available in the university curriculum. [15] The amount of technical universities in which students can attend a course is limited. Only British columbia, Technical University of Dortmund (involved in the european fuzzy boom) and Georgia Southern University are offering courses from this domain.

The reason why major university are ignoring the topic is because they don't have the resources. The existing computer science courses are so complex, that at the end of the semester there is no room for fuzzy logic. [16] Sometimes it is taught as a subproject in existing introduction courses, but in most cases the universities are preferring courses about classical AI concepts based on boolean logic, turing machines and toy problems like blocks world.

Since a while with the upraising of STEM education, the situation has changed a bit. [17] There are some efforts available in which multidisciplinary approaches are preferred which allows the student to understand complex adaptive systems. [18] These objectives are discussed only on a theoretical basis. The curriculum of real universities wasn't adapted yet.


Ver el vídeo: NeuroLab #23 - Neurociência computacional u0026 Medo (Mayo 2022).