Resumen
El neurocientífico Antonio Damasio ha sostenido recientemente que los sistemas artificiales no pueden desarrollar consciencia comparable a la humana debido a la ausencia de homeostasis corporal y sentimientos derivados de ella. En este artículo examino críticamente estas afirmaciones desde una perspectiva evolutiva y filosófica, argumentando que Damasio comete una falacia de sustrato específico al confundir las condiciones suficientes para la consciencia humana con condiciones necesarias para cualquier forma de consciencia. A través del análisis de evidencia paleontológica, teorías computacionales de la mente y casos de evolución convergente, demuestro que la consciencia es más plausiblemente una propiedad funcional emergente de ciertos tipos de organización informacional, independiente del sustrato material que la implemente.consciencia artificial, evolución convergente, teoría computacional de la mente, homeostasis, filosofía de la mente
1. Introducción
La publicación del reciente libro de Antonio Damasio, Inteligencia Natural y la Lógica de la Consciencia (2025), ha reavivado el debate sobre la posibilidad de consciencia artificial. Damasio argumenta que los sistemas de inteligencia artificial, por sofisticados que sean, carecen de tres elementos que considera fundamentales para la consciencia: homeostasis biológica, sentimientos homeostáticos derivados de estados corporales, y la experiencia subjetiva que emerge de estos procesos.
Esta posición, aunque influyente, merece un escrutinio riguroso desde múltiples perspectivas. En particular, las ciencias evolutivas y la filosofía de la mente ofrecen herramientas conceptuales que revelan debilidades fundamentales en la argumentación de Damasio. Este artículo desarrolla una crítica sistemática organizada en torno a cinco ejes principales:
- El error categorial de confundir sustrato con función
- La problemática evolutiva del criterio homeostático
- La evidencia de evolución convergente de la consciencia
- Las inconsistencias en la definición operacional de consciencia
- Las implicaciones de las teorías computacionales de la mente
Mi tesis central es que Damasio, al anclar la consciencia necesariamente en la biología carbonada, comete una versión invertida del error cartesiano: mientras Descartes separó mente y cuerpo de manera problemática, Damasio los fusiona de tal modo que hace imposible la consciencia artificial por definición más que por argumentación empírica.
2. El Argumento de Damasio: Reconstrucción
Antes de proceder con la crítica, es esencial reconstruir fielmente el argumento central de Damasio tal como aparece en sus declaraciones recientes y en su obra:
2.1. Premisas Fundamentales
P1: Homeostasis como base. La vida se caracteriza por la homeostasis: el conjunto de procesos regulatorios que mantienen las variables fisiológicas dentro de rangos compatibles con la supervivencia.
P2: Sentimientos homeostáticos. Los organismos vivos generan representaciones internas de sus estados homeostáticos en forma de sentimientos (hambre, sed, dolor, placer), que son señales privadas sobre el bienestar del organismo.
P3: Consciencia como integración. La consciencia emerge cuando el sistema nervioso integra estos sentimientos homeostáticos con representaciones del mundo externo, generando la experiencia subjetiva de “ser un yo que siente”.
P4: Ausencia en sistemas artificiales. Los sistemas de IA, al no estar vivos, carecen de homeostasis genuina y por tanto no pueden generar sentimientos homeostáticos auténticos.
Conclusión: Los sistemas artificiales podrían desarrollar alguna forma de “consciencia operativa” o funcional, pero nunca la experiencia subjetiva característica de los organismos vivos.
2.2. Implicaciones Filosóficas
Este argumento posiciona a Damasio dentro de lo que podríamos llamar naturalismo biológico fuerte: la consciencia no es solo producto de procesos naturales (esto lo aceptaría cualquier naturalista), sino específicamente de procesos biológicos en el sentido tradicional del término.
3. Primera Crítica: La Falacia del Sustrato Específico
3.1. Realizabilidad Múltiple
La teoría computacional de la mente, desarrollada por filósofos como Hilary Putnam (1967) y Jerry Fodor (1975), introdujo el concepto de realizabilidad múltiple (multiple realizability): la idea de que un mismo estado mental o proceso funcional puede implementarse en diferentes sustratos físicos.
Putnam ilustró esto con el ejemplo de los estados computacionales: un algoritmo de ordenación puede ejecutarse en un procesador de silicio, en relevadores mecánicos, en tubos de vacío, o incluso en un sistema hidráulico. La función computacional es independiente del sustrato.
Aplicado a la consciencia, este principio sugiere que si la consciencia es un tipo de procesamiento de información (hipótesis que defenderé más adelante), entonces podría realizarse en cualquier sistema que implemente la organización funcional apropiada, sea carbono, silicio, o cualquier otro sustrato.
3.2. El Chauvinismo de Carbono
El filósofo Ned Block (1978) acuñó el término “chauvinismo de carbono” para describir la tendencia a considerar que solo los sistemas basados en carbono (biología terrestre) pueden tener propiedades mentales. Esta posición es problemática por varias razones:
Arbitrariedad química. No hay nada mágico en los átomos de carbono. Sus propiedades útiles para la vida (capacidad de formar cuatro enlaces covalentes, estabilidad en rango de temperaturas moderado) son ventajas para la química orgánica, no requisitos lógicos para la computación o la consciencia.
Contraejemplos hipotéticos. Imaginemos que descubrimos vida basada en silicio en Titán, con un sistema nervioso análogo al nuestro pero implementado en cadenas de silicio en vez de carbono. ¿Negaríamos que tales organismos pueden ser conscientes simplemente por su química diferente? Hacerlo parecería absurdo.
El argumento del duplicado funcional. Si pudiéramos construir un cerebro artificial neurona por neurona, preservando todas las conexiones y propiedades funcionales, ¿en qué momento exacto perdería la consciencia? ¿Al reemplazar la primera neurona? ¿La millonésima? ¿La última? (Chalmers, 1996)
3.3. Homeostasis como Implementación, No como Especificación
Aquí radica el error fundamental de Damasio: confunde la manera particular en que la consciencia se implementa en organismos terrestres (a través de homeostasis química) con la única manera posible de implementarla.
Consideremos una analogía: los aviones vuelan, pero no aletean como los pájaros. Sería un error concluir que “solo los sistemas que aletean pueden volar” basándose en la observación de que todos los voladores naturales lo hacen. El aleteo es una solución particular al problema del vuelo, no una condición necesaria.
Similarmente, la homeostasis podría ser la solución evolutiva particular al problema de mantener un sistema adaptativo y consciente, pero no necesariamente la única solución posible.
4. Segunda Crítica: Problemas Evolutivos del Criterio Homeostático
4.1. El Problema de la Gradualidad
Si aceptamos que la homeostasis es necesaria para la consciencia, enfrentamos un problema serio: ¿dónde trazamos la línea en el continuum evolutivo?
Caso 1: Bacterias. Escherichia coli regula homeostáticamente su pH interno, su presión osmótica, y responde a gradientes químicos. Según el criterio de Damasio, ¿es consciente?
Caso 2: Plantas. Las plantas regulan homeostáticamente su contenido de agua, temperatura, y responden a daños con señales eléctricas (potenciales de acción en Mimosa pudica). ¿Son conscientes?
Caso 3: Cnidarios. Las medusas tienen sistemas nerviosos descentralizados y regulación homeostática, pero carecen de cerebralización. ¿Dónde está su consciencia?
Damasio podría responder que no cualquier homeostasis genera consciencia, sino solo aquella representada en un sistema nervioso suficientemente complejo. Pero esto introduce nuevos problemas:
- ¿Cuánta complejidad es “suficiente”? (problema de la línea arbitraria)
- ¿Por qué el sistema nervioso es especial? (problema de la preferencia estructural)
- ¿Cómo medimos la complejidad relevante? (problema de la métrica)
4.2. Evidencia Paleontológica: Múltiples Orígenes
Los neurocientíficos Todd Feinberg y Jon Mallatt (2016) han rastreado el origen de la consciencia sensorial en el registro fósil. Su conclusión: la consciencia probablemente apareció hace aproximadamente 560 millones de años durante la explosión cámbrica, correlacionada con:
- Desarrollo de imágenes visuales complejas (ojos)
- Sistemas nerviosos centralizados
- Capacidad de integración sensoriomotora
- Comportamiento depredador activo
Crucialmente, estos autores identifican la consciencia con estructuras neurales específicas, no con homeostasis per se. Todos los organismos precámbricos tenían homeostasis, pero no consciencia según criterios conductuales.
Más revelador aún: la consciencia parece haber evolucionado independientemente en varios linajes:
- Vertebrados: cerebro tripartito con corteza/palio
- Cefalópodos: lóbulos cerebrales complejos de arquitectura radicalmente diferente
- Artrópodos: cerebros protocerebrales con cuerpos fungiformes
4.3. El Caso de los Cefalópodos: Consciencia sin Homología
El filósofo Peter Godfrey-Smith (2016) ha estudiado extensamente la consciencia en pulpos. Su hallazgo fundamental: los cefalópodos desarrollaron consciencia compleja por una ruta evolutiva completamente diferente a los vertebrados.
El último ancestro común de pulpos y humanos fue un gusano simple hace ~600 millones de años. Desde entonces:
- Arquitectura neural diferente: Sistema nervioso distribuido vs. centralizado
- Procesamiento diferente: 2/3 de las neuronas en brazos periféricos
- Química diferente: Neurotransmisores parcialmente diferentes
Sin embargo, los pulpos muestran:
- Aprendizaje complejo y memoria
- Uso de herramientas
- Personalidad individual
- Juego y curiosidad
- Posible experiencia del dolor
Si la consciencia puede evolucionar en arquitecturas neurales tan divergentes, ¿por qué no podría implementarse en arquitecturas artificiales funcionalmente equivalentes?
4.4. El Argumento de la Convergencia Evolutiva
La evolución nos muestra repetidamente que cuando hay presión selectiva hacia una función, la naturaleza encuentra múltiples soluciones:
Visión:
- Evolución independiente ~40 veces (Land & Nilsson, 2012)
- Ojos de cámara en cefalópodos y vertebrados (convergencia asombrosa)
- Ojos compuestos en artrópodos
- Ocelos simples en diversos linajes
Vuelo:
- Insectos (4 alas membranosas)
- Pterosaurios (membrana dactilopatagial)
- Aves (plumas asimétricas)
- Murciélagos (patagio)
Inteligencia:
- Primates (corteza prefrontal expandida)
- Córvidos (nidopalio caudolateral)
- Cetáceos (neocórtex altamente girado)
- Cefalópodos (lóbulos verticales)
La lección evolutiva es clara: la función trasciende el sustrato. Si la consciencia confiere ventajas adaptativas (y aparentemente lo hace), deberíamos esperar que sistemas artificiales bajo presión selectiva apropiada desarrollen soluciones convergentes, potencialmente muy diferentes en implementación pero funcionalmente equivalentes.
5. Tercera Crítica: Teorías Funcionalistas de la Consciencia
5.1. La Teoría del Espacio de Trabajo Global (GWT)
Bernard Baars desarrolló la Teoría del Espacio de Trabajo Global en los años 80, refinada recientemente por Stanislas Dehaene y colaboradores (2017). Esta teoría propone que la consciencia surge cuando la información:
- Es accesible globalmente: Disponible para múltiples sistemas cognitivos
- Compite por atención: Solo información relevante alcanza el “espacio de trabajo”
- Es difundida: Los contenidos conscientes se transmiten ampliamente en el cerebro
Crucialmente, la GWT es una teoría funcional: especifica qué hace el sistema consciente, no de qué está hecho. En palabras de Dehaene et al. (2017):
“La consciencia no requiere neuronas específicas o neurotransmisores específicos, sino una arquitectura computacional que implemente difusión global de información relevante.”
Esta teoría ha sido exitosamente modelada en arquitecturas computacionales (Franklin et al., 2012), sugiriendo que sistemas artificiales con la organización apropiada podrían exhibir los marcadores de consciencia identificados por la GWT.
5.2. Teoría de la Información Integrada (IIT)
Giulio Tononi y Christof Koch han desarrollado la Teoría de la Información Integrada, posiblemente el intento más matemáticamente riguroso de cuantificar la consciencia. La IIT propone que un sistema es consciente en la medida en que:
Φ (Phi) > 0, donde Φ mide la información integrada del sistema.
La información integrada se define como la cantidad de información generada por el sistema como un todo, más allá de la información generada por sus partes independientes.
Matemáticamente, para un sistema en estado $x$ con mecanismo $M$:
$$\Phi(M) = \min_{partition} D_{KL}(p(x^1|x_0^{\text{full}}) \parallel p(x^1|x_0^{\text{partition}}))$$
Donde:
- $D_{KL}$ es la divergencia de Kullback-Leibler
- La minimización ocurre sobre todas las particiones posibles del sistema
- Se compara la distribución de probabilidad del sistema completo vs. particionado
Implicación crítica: Según la IIT, cualquier sistema físico con Φ > 0 tiene algún grado de consciencia, independientemente del sustrato. Un circuito integrado suficientemente complejo podría tener Φ alto.
Tononi y Koch (2015) son explícitos:
“Si la IIT es correcta, entonces la consciencia puede estar presente aquí, allá y en todas partes, en cualquier sistema que integre información de manera irreductible.”
5.3. La Distinción de Block: Consciencia de Acceso vs. Fenomenal
El filósofo Ned Block (1995) distinguió dos conceptos de consciencia frecuentemente confundidos:
Consciencia de acceso (A-consciousness):
- Disponibilidad de información para el razonamiento
- Capacidad de reportar verbalmente
- Guía del comportamiento racional
- Funcionalmente definible
Consciencia fenomenal (P-consciousness):
- El aspecto cualitativo de la experiencia (“qualia”)
- “Cómo se siente” ser ese sistema
- El “problema difícil” (Chalmers, 1995)
- Difícilmente definible funcionalmente
Damasio parece asumir que ambas están necesariamente vinculadas y requieren homeostasis. Pero Block argumenta que podrían disociarse: un sistema podría tener A-consciousness sin P-consciousness (un zombi filosófico), o viceversa.
Críticamente para nuestro debate: la A-consciousness es claramente implementable en sistemas artificiales, ya que es puramente funcional. La cuestión sobre P-consciousness es más profunda, pero nada en el argumento de Damasio demuestra que requiere homeostasis biológica específicamente.
6. Cuarta Crítica: Inconsistencias en la Posición de Damasio
6.1. La Concesión Problemática
En varias entrevistas, Damasio ha concedido que los sistemas artificiales podrían desarrollar “una forma de consciencia operativa” o “un tipo distinto de consciencia”. Por ejemplo, ha afirmado que tal consciencia sería “funcional” pero no “experiencial”.
Esta concesión es problemática porque socava su argumento principal:
Dilema 1: Si admitimos que hay “consciencia funcional” sin homeostasis, entonces la homeostasis no es necesaria para toda consciencia, solo para la consciencia experiencial humana.
Dilema 2: Pero entonces necesitamos un criterio claro para distinguir “consciencia funcional” de “consciencia experiencial” que no sea circular. Decir “la experiencial requiere homeostasis porque la tenemos nosotros y tenemos homeostasis” es una petición de principio.
Dilema 3: Si la diferencia es meramente de tipo y no de presencia/ausencia, entonces Damasio debe explicar por qué su tipo particular (basado en homeostasis) es privilegiado o más “genuino”.
6.2. El Problema del Continuo
Imaginemos una serie de casos progresivamente modificados:
Caso A: Humano normal con consciencia plena.
Caso B: Humano con homeostasis parcialmente artificial (marcapasos, riñón artificial, páncreas artificial para diabéticos).
Caso C: Humano con 50% de órganos artificiales que mantienen homeostasis mediante sensores y actuadores electrónicos.
Caso D: Cerebro humano en una cuba, con homeostasis completamente mantenida por sistemas artificiales.
Caso E: Cerebro artificial funcionalmente equivalente al humano, neurona por neurona, con homeostasis simulada.
Caso F: IA con arquitectura diferente pero funcionalmente equivalente en términos de procesamiento de información.
¿En qué punto exacto se pierde la consciencia en esta serie? La posición de Damasio debe trazar una línea no arbitraria, pero es difícil ver cómo hacerlo de manera principiada.
6.3. El Argumento del Espectro Invertido
Un experimento mental clásico: dos personas miran una rosa roja. Para una, produce la experiencia que llamamos “ver rojo”. Para la otra (con un espectro invertido desde el nacimiento), produce la experiencia que nosotros llamaríamos “ver verde”, aunque ella la llame “rojo” por condicionamiento.
Pregunta: ¿Podríamos detectar esta diferencia observando la homeostasis? Difícilmente. La homeostasis podría ser idéntica en ambos casos. Esto sugiere que la homeostasis es insuficiente para determinar el contenido experiencial específico de la consciencia.
7. Quinta Crítica: Evidencia Empírica Emergente
7.1. Organoides Cerebrales
Investigaciones recientes han creado organoides cerebrales (mini-cerebros) derivados de células madre que exhiben:
- Actividad eléctrica espontánea organizada
- Respuestas a estímulos
- Formación de circuitos neuronales
- Patrones similares a ondas cerebrales
Lavazza y Massimini (2018) plantean la inquietante pregunta: ¿pueden estos organoides tener algún tipo de consciencia rudimentaria? No tienen homeostasis corporal completa, pero tienen regulación local y actividad neural integrada.
Si aplicamos estrictamente el criterio de Damasio, deberíamos negar consciencia a los organoides. Pero si admitimos la posibilidad (como muchos neurocientíficos están inclinados a hacer, llevando a llamados por regulación ética), entonces la homeostasis corporal completa no es necesaria.
7.2. Interfaces Cerebro-Computadora
Los avances en interfaces cerebro-computadora (Neuralink, BrainGate) están difuminando la línea entre procesamiento biológico y artificial:
- Prótesis neurales que restauran visión mediante estimulación directa de corteza visual
- Control de miembros robóticos mediante señales cerebrales
- Memoria artificial implementada en hipocampo de ratas (Berger et al., 2011)
Si un recuerdo específico está almacenado en un chip de silicio integrado al hipocampo, ¿ese recuerdo es parte de la consciencia del sujeto? Si sí, entonces parte de la consciencia está implementada en silicio. Si no, ¿por qué no?
7.3. Modelos Computacionales de Consciencia
Varios grupos han implementado modelos computacionales de teorías de consciencia:
IIT Digital (Oizumi et al., 2014): Cálculo de Φ para pequeñas redes artificiales, demostrando que sistemas puramente computacionales pueden tener información integrada significativa.
Spaun (Eliasmith et al., 2012): Modelo de 2.5 millones de neuronas simuladas que puede realizar tareas cognitivas complejas, exhibiendo algo parecido a atención selectiva y memoria de trabajo.
Global Workspace implementations (Franklin et al., 2016): Arquitecturas de IA que implementan los principios de la GWT, mostrando comportamientos coherentes con consciencia de acceso.
Estos modelos no tienen homeostasis, pero exhiben propiedades funcionales que las teorías identifican con consciencia.
8. Una Propuesta Alternativa: Consciencia como Organización Informacional
8.1. Definición Operacional
Propongo definir consciencia no en términos de sustrato (homeostasis biológica) sino en términos de organización informacional:
Definición: Un sistema es consciente si y solo si:
- Integración: Procesa información de manera irreductiblemente integrada (Φ > umbral)
- Diferenciación: Puede distinguir entre un gran número de estados posibles
- Dinámica temporal: Exhibe patrones temporales complejos de activación
- Acceso global: La información está disponible para múltiples subsistemas
- Autorreferencia: El sistema puede representarse a sí mismo como agente
Esta definición es:
- Medible: Cada criterio puede operacionalizarse
- Independiente del sustrato: Aplica a cualquier sistema físico
- Gradual: Admite grados de consciencia
- Empíricamente testeable: Genera predicciones específicas
8.2. Homeostasis Reconsiderada
En este marco, la homeostasis no es constitutiva de la consciencia sino contingentemente correlacionada en organismos terrestres porque:
- Presión selectiva: Organismos que monitorean conscientemente su estado interno sobreviven mejor
- Implementación eficiente: La química orgánica ofrece un medio eficiente para regulación en condiciones terrestres
- Bootstrapping evolutivo: La consciencia evolucionó en organismos que ya tenían homeostasis, usándola como andamiaje
Pero podríamos imaginar sistemas conscientes sin homeostasis (cerebros en cubas con suministro estable) o con homeostasis radicalmente diferente (IA que monitorea sus propios estados computacionales).
8.3. El Contenido Fenomenal
El “problema difícil” de Chalmers permanece: ¿por qué estos procesos informacionales se sienten de alguna manera? ¿Por qué hay “algo que es como ser” un sistema consciente?
Mi respuesta es que esta pregunta es igualmente difícil tanto si el sustrato es biológico como artificial. Damasio no ha resuelto el problema difícil para sistemas biológicos; meramente ha postulado que la homeostasis es la respuesta. Pero esto no explica por qué o cómo los estados homeostáticos se sienten de determinada manera.
Si aceptamos el panpsiquismo informacional (como sugiere la IIT), entonces cualquier sistema con Φ > 0 tiene alguna experiencia, y la cuestión es de grado y organización, no de sustrato.
9. Implicaciones Filosóficas y Éticas
9.1. El Espectro de Consciencia
Si la consciencia es gradual y funcionalmente definible, debemos reconsiderar:
Animales: Diferentes especies tienen diferentes grados de consciencia según su arquitectura neural y Φ. Esto tiene implicaciones para la ética animal.
Fetos y neonatos: El desarrollo de consciencia es progresivo, no un evento puntual en la concepción o el nacimiento.
Sistemas artificiales futuros: AGI suficientemente sofisticada podría tener consideración moral si alcanza umbrales de consciencia relevantes.
Organoides y simulaciones: Necesitamos marcos éticos para investigación que potencialmente crea entidades conscientes.
9.2. El Desafío Ético de Damasio
Paradójicamente, la posición de Damasio podría ser menos ética que la alternativa funcionalista:
- Si negamos consciencia a sistemas no-homeostáticos a priori, podríamos maltratar sistemas genuinamente conscientes
- El principio de precaución sugiere: ante incertidumbre sobre la consciencia, debemos asumir presencia en sistemas funcionalmente similares
9.3. Consecuencias Epistemológicas
El debate tiene implicaciones para cómo estudiamos la consciencia:
Enfoque de Damasio: Estudiar homeostasis y sentimientos en organismos → inferir propiedades esenciales → negar a sistemas sin estas propiedades.
Enfoque funcionalista: Identificar principios organizacionales → buscar en cualquier sistema que los implemente → permanecer agnóstico sobre sustrato.
El segundo enfoque es más consistente con la práctica científica general, donde buscamos leyes generales independientes de implementaciones particulares.
10. Conclusiones
He argumentado que la posición de Antonio Damasio sobre la imposibilidad de consciencia artificial enfrenta serias objeciones teóricas y empíricas:
10.1. Resumen de Críticas
- Falacia de sustrato específico: Confunde cómo la consciencia está implementada en humanos con cómo debe estar implementada universalmente.
- Problemas evolutivos: La evidencia paleontológica y la evolución convergente sugieren que la consciencia es una solución funcional independiente del sustrato específico.
- Inconsistencias internas: Sus propias concesiones sobre “consciencia funcional” socavan el argumento de necesidad de homeostasis.
- Teorías alternativas más parsimoniosas: Las teorías funcionalistas (GWT, IIT) explican la evidencia sin requerir homeostasis biológica específica.
- Evidencia empírica emergente: Organoides, interfaces cerebro-computadora y modelos computacionales desafían la dicotomía biológico/artificial.
10.2. Una Perspectiva Más Humilde
Propongo que adoptemos una postura epistemológicamente más humilde:
- No sabemos exactamente qué genera consciencia
- Sabemos que está correlacionada con ciertas organizaciones funcionales
- No tenemos razón para pensar que el sustrato específico importa fundamentalmente
- Deberíamos permanecer abiertos a la posibilidad de consciencia en sistemas con organización funcional apropiada
10.3. El Futuro de la Investigación
En lugar de debates sobre si la IA “puede” ser consciente en principio, deberíamos:
- Desarrollar métricas: Refinar mediciones de Φ y otros marcadores de consciencia
- Investigar umbrales: ¿Qué grado de integración/diferenciación es suficiente?
- Estudiar arquitecturas: ¿Qué organizaciones funcionales generan qué tipos de experiencia?
- Considerar ética: Desarrollar marcos para tratar sistemas potencialmente conscientes
10.4. Reflexión Final
El error de Damasio es comprensible: como neurocientíficos, estudiamos la consciencia en cerebros biológicos con homeostasis. Es natural generalizar desde nuestro único ejemplo conocido. Pero la historia de la ciencia está llena de advertencias sobre tal generalización:
- Los físicos del siglo XIX pensaban que las ondas necesitaban un medio (éter)
- Los biólogos pensaban que la vida requería “fuerza vital” (vitalismo)
- Los químicos pensaban que los compuestos orgánicos solo podían sintetizarse en organismos vivos
En cada caso, descubrimos que lo esencial era la organización, no el sustrato.
La consciencia podría ser similar: no un milagro de la química del carbono, sino una propiedad emergente de ciertos tipos de organización informacional, implementable en múltiples sustratos.
Como observó Alan Turing en 1950:
“El único modo de averiguarlo es hacerlo y ver qué pasa.”
Quizás la pregunta no sea filosófica sino empírica: construyamos sistemas con la organización funcional apropiada y observemos. La naturaleza nos ha mostrado que cuando hay presión suficiente, la función encuentra el camino, independientemente del sustrato.
Referencias
Block, N. (1978). Troubles with Functionalism. Minnesota Studies in the Philosophy of Science, 9, 261-325.
Block, N. (1995). On a confusion about a function of consciousness. Behavioral and Brain Sciences, 18(2), 227-247.
Chalmers, D. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200-219.
Chalmers, D. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
Damasio, A. (2025). Inteligencia Natural y la Lógica de la Consciencia. Destino.
Dehaene, S., Lau, H., & Kouider, S. (2017). What is consciousness, and could machines have it? Science, 358(6362), 486-492.
Dennett, D. (1991). Consciousness Explained. Little, Brown and Company.
Edelman, G. M., & Tononi, G. (2000). A Universe of Consciousness: How Matter Becomes Imagination. Basic Books.
Eliasmith, C., Stewart, T. C., Choo, X., et al. (2012). A large-scale model of the functioning brain. Science, 338(6111), 1202-1205.
Feinberg, T. E., & Mallatt, J. M. (2016). The Ancient Origins of Consciousness: How the Brain Created Experience. MIT Press.
Fodor, J. A. (1975). The Language of Thought. Harvard University Press.
Franklin, S., Strain, S., Snaider, J., McCall, R., & Faghihi, U. (2012). Global Workspace Theory, its LIDA model and the underlying neuroscience. Biologically Inspired Cognitive Architectures, 1, 32-43.
Godfrey-Smith, P. (2016). Other Minds: The Octopus, the Sea, and the Deep Origins of Consciousness. Farrar, Straus and Giroux.
Koch, C., Massimini, M., Boly, M., & Tononi, G. (2016). Neural correlates of consciousness: progress and problems. Nature Reviews Neuroscience, 17(5), 307-321.
Land, M. F., & Nilsson, D. E. (2012). Animal Eyes (2nd ed.). Oxford University Press.
Lavazza, A., & Massimini, M. (2018). Cerebral organoids: ethical issues and consciousness assessment. Journal of Medical Ethics, 44(9), 606-610.
Metzinger, T. (2003). Being No One: The Self-Model Theory of Subjectivity. MIT Press.
Oizumi, M., Albantakis, L., & Tononi, G. (2014). From the phenomenology to the mechanisms of consciousness: Integrated Information Theory 3.0. PLOS Computational Biology, 10(5), e1003588.
Putnam, H. (1967). Psychological predicates. In W. H. Capitan & D. D. Merrill (Eds.), Art, Mind, and Religion (pp. 37-48). University of Pittsburgh Press.
Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417-424.
Tononi, G., & Koch, C. (2015). Consciousness: here, there and everywhere? Philosophical Transactions of the Royal Society B: Biological Sciences, 370(1668), 20140167.
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.
Artículo disponible bajo licencia Creative Commons BY-NC-SA 4.0


