Elisa Moreu, catedrática de Derecho Administrativo
“¿Los derechos fundamentales protegen nuestros cerebros o hay que inventarse otros nuevos?”
Neurotecnologías que leen señales cerebrales, sistemas que ayudan a mejorar la memoria mediante estimulación o implantes capaces de traducir la intención de movimiento en acciones externas son ejemplos de un futuro que comienza a desplegarse: la aumentación mental. Esta nueva rama de la ciencia tiene un enorme potencial, pero también hay que preguntase como puede afectar a nuestras sociedades. En esta entrevista con Perfiles, Elisa Moreu, catedrática de Derecho Administrativo en la Universidad de Zaragoza y especialista jurídica en el impacto de las neurotecnologías sobre nuestras sociedades, aborda cuáles son los límites éticos que deberían guiar la relación entre cerebro y máquina.
Por Refugio Martínez
La aumentación mental ya no es ciencia ficción: es una realidad incipiente que avanza desde los laboratorios hacia la vida cotidiana. Las neurotecnologías están acelerando una transformación sin precedentes: cascos que registran la actividad cerebral, dispositivos capaces de estimular áreas concretas del cerebro o incluso chips implantables que permiten recuperar funciones perdidas y, potencialmente, aumentar nuestras capacidades cognitivas.
La aumentación mental ya no es ciencia ficción: es una realidad incipiente que avanza desde los laboratorios hacia la vida cotidiana
Este fenómeno abre la puerta a mejorar la memoria, la atención, la concentración, a curar enfermedades mentales y en un futuro, también, plantea la posibilidad de tener nuestro cerebro conectado directamente con la IA, pero también plantea riesgos profundos. Si logramos modificar y potenciar la actividad cerebral, ¿qué ocurre con la privacidad de nuestros pensamientos, la libertad para decidir o la identidad individual? ¿Podrá alguien hackear nuestro cerebro? ¿Tendrá todo el mundo la misma posibilidad para acceder a la aumentación mental?
En un escenario donde la tecnología puede leer, estimular o influir en nuestra actividad cerebral, emergen los neuroderechos, un conjunto de derechos propuestos por la comunidad científica que ya están siendo analizados por juristas como Elisa Moreu, catedrática de Derecho Administrativo en la Universidad de Zaragoza.
Moreu es también experta en derecho público y pionera en el estudio del lenguaje jurídico, la psicología conductual aplicada al derecho y el control administrativo de las neurotecnologías. Su trayectoria en la investigación de los conflictos éticos que plantean las neurotecnologías le ha convertido en una de las voces más autorizadas en España para analizar el futuro de los neuroderechos y los dilemas legales que acompañarán a la aumentación mental.
- ¿Cómo se define jurídicamente la palabra neuroderechos? ¿En qué se diferencian de los derechos fundamentales clásicos?
Los neuroderechos no existen. Es decir, no hay una constitución ni una ley, ni en España ni en Europa, que los reconozca como derechos humanos. Estamos ante un término nuevo que no nace en el mundo del derecho ni en el mundo de las leyes, sino de los propios científicos que investigan las neurotecnologías.
En cualquier caso, cuando hablamos de neuroderechos, tenemos que poner el foco en los derechos humanos que se verían afectados por el avance de las neurotecnologías, que son, entre otros, la integridad física y moral, la libertad ideológica, la intimidad personal, la libertad de expresión o la presunción de inocencia.
"Cuando hablamos de neuroderechos, tenemos que poner el foco en los derechos humanos que se verían afectados por el avance de las neurotecnologías"
La pregunta que tenemos que hacer es si esos derechos fundamentales ya protegen nuestros cerebros o si hay que inventarse y reconocer nuevos derechos, que llamaríamos ‘neuroderechos’. Eso es lo que los juristas estamos debatiendo ahora.

- En su opinión, ¿cree posible que surjan nuevos derechos mentales que aún no se han formulado?
Es lo que proponen personas como el neurocientífico Rafael Yuste: nuevos derechos humanos como si los actuales no protegieran esas áreas. Existe un debate entre quienes afirman que los derechos actuales no protegen la privacidad mental y quienes pensamos que sí. De momento, solo en cartas de derechos digitales o en algún país como Chile o México se están empezando a regular algunos principios. Es cuestión de tiempo.
En mi opinión, las libertades de las que hablan los neuroderechos ya están reguladas. La libertad de conciencia, la libertad ideológica, la integridad física y personal: todo eso ya está en la Constitución. No hace falta inventar nada nuevo.
Además, creo que es un poco peligroso precipitarse y reconocer unos nuevos derechos que todavía no sabemos qué efectos pueden tener o si se nos van a quedar cortos.
"Es un poco peligroso precipitarse y reconocer unos nuevos derechos que todavía no sabemos qué efectos pueden tener"
Precipitarse es como hacer divagaciones de ciencia ficción. No sabemos cómo va a ser ese futuro que anuncian. Además, ha costado muchos años consolidar un sistema de derechos humanos reconocido en declaraciones internacionales, en textos europeos y en constituciones nacionales, y esos derechos están muy asentados y son muy flexibles, por lo que se pueden adaptar a nuevas realidades.
Por ejemplo, en el caso de la mejora cognitiva, de la que se está empezando a hablar ahora, siempre ha existido la posibilidad de manipular el cerebro a través de drogas o a través del marketing. Los psicólogos, los magos y los políticos saben cómo emplear el lenguaje y herramientas para manipularnos. La diferencia es que ahora hay tecnologías que, en conexión con inteligencia artificial, van a permitir un conocimiento cada vez mayor, milimétrico, de nuestro cerebro.
Eso abre la puerta a que en un futuro puedan controlar y manipular nuestros pensamientos, pero ahora hay leyes que ya lo regulan, como la publicidad subliminal o la normativa de protección de datos. Son regulaciones indirectas, porque no hay una ley de mejora cognitiva ni nada parecido en el derecho debido a que estas tecnologías son muy incipientes.
Los datos son el oro de las tecnologías. Ahora, con cualquier cosa, tú estás regalando tus datos: con el uso de ChatGPT estás alimentando la IA; con las redes sociales, das tu DNI, tu nombre, tu teléfono, hasta el iris. Y lo mismo pasará con los datos cerebrales, que además son extremadamente personales, lo que convierte la privacidad en un elemento fundamental. En este sentido, ¿cómo puede garantizarse la libertad cognitiva en un futuro donde la actividad cerebral podrá ser leída, modificada o incluso manipulada?
Toda esta información está protegida por la ley de protección de datos. Y, con los datos neuronales pasará igual. En estos casos estarían protegidos, pero técnicamente será más fácil que personas maliciosas hagan un uso indebido de esos datos. Y cada vez costará más regularlos.
- ¿Cuáles son los principales riesgos que la aumentación cognitiva plantea para los derechos de las personas?
Hace falta, a nivel legal y reglamentario, controlar muy bien todos los productos tecnológicos que se introducen en el mercado, tanto los sanitarios como los no sanitarios. Cuando hablamos de neurotecnologías sanitarias, para ayudar a personas que tienen problemas para moverse o en el habla, o para curar enfermedades como el alzhéimer o patologías degenerativas, todos lo vemos muy bien y el control es mucho mayor pues son productos sanitarios.
"Hace falta, a nivel legal y reglamentario, controlar muy bien todos los productos tecnológicos"
Pero las neurotecnologías no solo tienen ese uso. Ahora empiezan a tener otras funciones relacionadas con el ocio y con el bienestar, que prometen mejorar nuestra concentración y nuestra memoria y que están peor controladas. Por eso, creo que el futuro de la legislación está en incrementar los controles atendiendo a los riesgos que puede tener esa tecnología, y no tanto a los fines. En este sentido, los poderes públicos deben evitar que se venda humo y que lo que el fabricante anuncia sea verdad. Hace falta regular esos productos, para que haya un control y una inspección, tanto en una fase previa como posterior a la comercialización.
Hay que controlar su fabricación para que todo lo que se pone en el mercado sea seguro, que no se vendan como productos de mejora cognitiva dispositivos que realmente no sirven para nada, que son mera publicidad para que los fabricantes saquen dinero y engañen a la gente. Lo que tenemos que garantizar es que la tecnología sea segura.
En este contexto, sí que es necesario actualizar las leyes. Y en ese sentido, se están haciendo muchos esfuerzos. La Unión Europea acaba de aprobar un reglamento de inteligencia artificial, se están reforzando los derechos de los consumidores y se están regulando, también a nivel europeo, los productos sanitarios. Creo, además, que esto no lo deben hacer solo los estados, sino una entidad a nivel transnacional.
También existe el riesgo de que te puedan manipular sin tu consentimiento, afectando sobre todo al control del libre albedrío y de la propia identidad personal. Ahora es ciencia ficción, pero los científicos dicen que eso podría llegar a pasar. Con la evolución de las tecnologías, que es ultrarrápida, existe el temor de que puedan usar esos datos neuronales y, especialmente con inteligencia artificial, para llegar a hackear tu cerebro.
"Existe el temor de que puedan usar esos datos neuronales y, especialmente con inteligencia artificial, para llegar a hackear tu cerebro"
Desde este punto de vista de la regulación, la robótica también va a impactar muchísimo en el derecho. ¿Qué vamos a hacer con los robots? ¿Cómo los vamos a tratar? ¿Cómo van a sustituir a los trabajadores y a determinadas profesiones? En estos casos, el derecho está mezclado con la ética, con la psicología y con la tecnología y debe ir seleccionando lo que es importante regular ya y lo que, de momento, no puede regular.

- Uno siempre piensa que el cerebro es lo único que es suyo y que nadie puede invadirlo, pero si las nuevas tecnologías permitiesen a los estados fisgonear en los cerebros, ¿se estaría atentando contra la privacidad en el sentido más absoluto?
No sé hasta qué punto eso será así, pero tendría implicaciones penales. Si, en algún momento, hay una tecnología que permite descifrar nuestros pensamientos y eso se utiliza como prueba para investigar a un imputado, a un presunto delincuente, ¿podríamos aplicar a la fuerza una neurotecnología por razones de seguridad y por el interés general? Igual que se puede usar la máquina de la verdad, los estados podrían entrar en la mente del acusado para saber si es un asesino.
Ahora existe el derecho a la presunción de inocencia, a no declarar contra uno mismo y a guardar silencio. Pero si los estados practican esa intromisión cerebral, estarían atentando contra estos derechos actuales. Habría una ruptura brutal con los derechos clásicos de presunción de inocencia y de la libertad ideológica.
Son cuestiones muy relevantes que plantean un debate. Me da mucho respeto que, en contra de tu voluntad, y por mucho que haya un interés supuestamente superior como es la seguridad, puedan meterse en mi cerebro y ver lo que pienso. Creo que los derechos fundamentales y, en concreto, la libertad ideológica y de pensamiento, deberían ser derechos absolutos.
"Me da mucho respeto que, en contra de tu voluntad, y por mucho que haya un interés supuestamente superior como es la seguridad, puedan meterse en mi cerebro y ver lo que pienso"
En cualquier caso, todavía estamos muy lejos. ¿Hasta qué punto la lectura del cerebro va a ser posible? Ahora los estudios están en un estado muy incipiente. Por eso, la gente no debe asustarse. Hoy esto no es posible, ni sé si va a ser posible realmente porque hace falta cierta intervención activa por parte del sujeto.
- Hemos hablado de riesgos, ahora hablemos de límites. La aumentación mental es una tecnología muy incipiente, por eso es necesario empezar a marcar los límites. ¿Está de acuerdo?
Creo que debería reconocerse en las normas una especie de reserva de humanidad, es decir, que haya determinadas funciones, profesiones y aspectos en los que siempre exista un control humano. No podemos ceder ante la tecnología, ni dejarnos engañar por el sesgo tecnológico, como si todo lo que hacen las máquinas fuera mejor.
"Debería reconocerse en las normas una especie de reserva de humanidad, es decir… que siempre exista un control humano"
Ahora mismo, en el año 2026, ya no hay manera de diferenciar una imagen real de una falsa, un vídeo real de uno falso. Se crean canciones y se hacen películas por inteligencia artificial y no se puede distinguir lo real de lo generado. Eso me parece muy peligroso porque supone una posibilidad de manipulación enorme.
No podemos dejar nuestras decisiones en manos de las máquinas porque esto puede acabar con el ser humano. A lo mejor es lo que nos merecemos, pero creo que la reserva de humanidad tiene que estar ahí.
Y luego, se están prohibiendo algunas tecnologías. Por ejemplo, el reglamento europeo de inteligencia artificial, que se aprobó el año pasado, hace un enfoque basado en riesgos y prohíbe algunas prácticas, como todas las que puedan afectar a la salud humana o invadir nuestros derechos fundamentales. Aunque todo eso está prohibido en Europa, en otros países, como China, India o Estados Unidos, están desarrollando tecnologías que no conocemos. No hay un acuerdo global ni lo habrá.
Por otro lado, también se dice que limitar demasiado las tecnologías puede frenar el avance científico. No podemos poner freno a esto. Además, es imposible ponerle puertas al campo, pero confío en que el derecho, poco a poco, vaya encontrando fórmulas para limitarlo.
- Por último, ¿podrían las tecnologías de aumentación cognitiva agravar las desigualdades sociales?
Esa es una de las cuestiones a las que apuntan los neuroderechos y normas como la Carta de Derechos Digitales española, que tratan de evitar discriminaciones y desigualdad en el acceso. Pero eso es como el derecho constitucional, que dice que todos tenemos derecho a una vivienda digna y adecuada. ¿Cómo conseguimos que ese derecho sea igual para todos?
Cada vez hay más brecha en las desigualdades sociales. Los estudios lo dicen: los ricos tienen acceso a más formación, mejor sanidad y más recursos. Con la tecnología ocurrirá lo mismo. ¿Quién tendrá acceso a esos tratamientos? Evidentemente, quienes puedan pagarlos.
"Cada vez hay más brecha en las desigualdades sociales"
Las normas reconocerán el derecho a acceder en igualdad de condiciones, sí, y los poderes públicos intentarán frenar esa diferencia, pero será inevitable. Esa brecha se abrirá todavía más, probablemente a causa de la tecnología.
Ahora bien, no sé si todo esto terminará en un mundo tan distópico y apocalíptico como nos prometen o, a lo mejor, no llegamos a ese extremo y los seres humanos acabamos otra vez desconectados de la tecnología, bien por necesidad –cortes energéticos que impidan la conectividad, por ejemplo– o por propia voluntad, por el simple deseo de recuperar el contacto humano que perdimos en este mundo hipertecnológico.
"¿Queremos ser un país con más burdeles que librerías?"
Por Beatriz Jiménez
Transparencia y confianza, un binomio imprescindible para las ONG
Por Ana Benavides
2025 en clave de derechos sociales
Por Redacción | Foto: Pool Moncloa/José Manuel Álvarez