Actividades realizadas en Sesiones Públicas 2017


Sesiones Solemnes

Apertura de Curso

“El estudio de los mecanismos del cambio climático global de Marte permitirá dar luz sobre las variaciones del clima en la Tierra”, afirmó el doctor Luis Vázquez Martínez, durante el acto de toma de posesión como Académico Correspondiente de la Sección de Ciencias Experimentales de la Real Academia de Doctores de España (RADE), en una sesión presidida por el titular de la corporación, Jesús Álvarez Fernández-Represa, al que acompañaban Emilio de Diego García, Secretario General; José María Teijón Rivera y Arturo Romero Salvador, Presidente y Vicepresidente, respectivamente, de la mencionada sección.

Desde sus comienzos, la labor investigadora del doctor Vázquez ha pivotado sobre el cálculo fraccionario y la exploración científica de Marte, como apuntó el doctor Romero al presentar al nuevo Académico Correspondiente, un interés que le llevó a participar en el proyecto de creación, en 1999, del Centro de Astrobiología (INTA-CSIC), asociado al Instituto de Astrobiología de la NASA. Desde la fundación de dicho centro, Vázquez ha participado y coordinado diversos proyectos para la exploración de Marte con la Agencia Europea del Espacio (ESA), la NASA y otros consorcios internacionales.

Como él recipiendario reflejó en su discurso, ha sido Coordinador del calibrado de los sensores de rayos ultravioleta del Beagle 2, un aterrizador encargado de investigar la exobiología y la geoquímica en la superficie marciana en la misión espacial Mars Express, la primera de la Agencia Espacial Europea, en 2003. Ha sido el investigador principal, de 2004 a 2007, de la estación de monitoreo ambiental del programa Rover-Curiosity, de la misión Mars Science Laboratory de la NASA, encargada de medir y proporcionar informes diarios y estacionales sobre presión atmosférica, humedad, radiación ultravioleta, velocidad y dirección del viento, temperatura del aire y del suelo.

Desde 2007, Vázquez es el Director Científico español de la misión MetNet Precursor, una red de estaciones meteorológicas en Marte, en la que participan Rusia, Finlandia y España, a la que está asociado el Grupo de Estudios Marcianos en la Universidad Complutense, creado por él mismo en 2008. El instrumento DREAMS-Schiaparelli, que dirige Vázquez en el proyecto MetNet, vuela en la misión ExoMars2016 con el fin de evaluar la cantidad de radiación solar que recibe la superficie marciana en diferentes bandas espectrales, medir la opacidad de la atmósfera debida al polvo suspendido y detectar la presencia de nubes en el cielo de Marte durante el amanecer y el anochecer. Dentro de la misión ExoMars2016, el nuevo miembro de la RADE es coinvestigador del instrumento ruso ExoMars Trace Gas Orbiter. Por otra parte, el DREAMS-Schiaparelli volará también en la ExoMars2020, y es posible que forme parte de la misión rusa de ida y vuelta Fobos-Grunt, en 2022-2024.

Colonia humana en Marte

Uno de los siguientes pasos gigantescos de la “aventura del espacio posiblemente será la llegada del hombre a Marte y el posterior establecimiento de una colonia humana”, continuó Vázquez, en lo que será un nuevo hito en la exploración planetaria que ha ido marcando los límites de la nueva frontera.

Un total de 42 misiones, de las que 18 tuvieron éxito, han tenido como finalidad el estudio de Marte, un planeta en el que son válidas las leyes de la física y de la química, como expuso Vázquez. Sin embargo, sus condiciones ambientales son un riesgo para los instrumentos de las misiones, ya que no existe o es muy débil el efecto protector de la atmósfera y la magnetosfera terrestre frente a las radiaciones solar y cósmica, el alto vacío, la ausencia de vapor de agua y la microgravedad; aunque el entorno es beneficioso para los instrumentos ópticos. La radiación, tanto electromagnética como solar, y los rayos cósmicos galácticos, que son peligrosos para el ADN, es unas dos veces y media la que recibe la Estación Espacial Internacional, un detalle relevante para la posible vida en el planeta y para las misiones tripuladas.

La atmósfera marciana es extremadamente oxidante y proporciona el característico color rojo. Una atmósfera tan tenue da lugar a diferencias de temperatura de hasta 15 grados centígrados entre el suelo y un metro de altura, y son frecuentes las tormentas de polvo a gran escala. La exploración ha permitido descubrir que ha existido agua líquida durante largos periodos de tiempo en la antigua superficie marciana, lo que aumenta la probabilidad de que se haya desarrollado vida, aunque fuera de forma primaria, durante la historia temprana del astro. Actualmente se han descubierto depósitos de hielo cerca de la superficie y agua en glaciares de latitud media y en los casquetes polares. La existencia de torrenteras sugiere episodios recientes de formaciones debidas al agua. Todo ello implica que Marte no es un mundo estático y árido, porque ha sido configurado por el agua. “Si la vida se desarrolló, podemos concebir que todavía sobreviva”, subrayó Vázquez.

Cambios climáticos periódicos

Un aspecto interesante para el recipiendario es que se acumulan las evidencias de que Marte experimenta cambios climáticos periódicos muy dramáticos, que parecen debidos a grandes oscilaciones en su órbita y a fluctuaciones de su eje de rotación, y ahora parece estar en un proceso de calentamiento. “Unos mecanismos de cambio climático global que permitirán dar luz sobre el cambio en la Tierra”, añadió.

La misión Mars Global Surveyor descubrió y cartografió una magnetización intensa en la corteza de Marte, que se ha detenido, y que protegía la superficie del viento solar y permitía la retención de la atmósfera y del agua; pero su pérdida ha sido la causa de que un planeta húmedo se haya convertido en el árido actual de acuerdo con los datos geológicos. Como dato curioso, Marte tiene cielos rojos y puestas de sol azules, justo al contrario que la Tierra. En su atmósfera se ha detectado metano, producido en regiones especificas de la superficie, seguramente, por algún proceso activo geológico o biológico. No obstante, este gas se destruye por la radiación ultravioleta.

Se ha conseguido un mapa de gran resolución de la topografía marciana y de su campo gravitatorio, cuyas variaciones afectan a las órbitas de sus satélites Fobos y Deimos. En este campo, uno de los importantes enigmas es la asimetría entre los dos hemisferios: el norte es llano y seis kilómetros más bajo que el sur, caracterizado por la presencia de muchos cráteres.

“El entorno espacial es estratégico para la universidad, porque es interdisciplinar y transdisciplinar, globalizador, internacional y abre la conexión natural con la industria, por lo que es fundamental conservar un entorno dinámico de investigación con visión estratégica de futuro. Una misión puede fallar, pero no el haber creado un entorno de investigación", añadió Vázquez. Actualmente, en la actividad desarrollada en torno a Marte participan las universidades públicas madrileñas Complutense, Politécnica y Autónoma, con proyectos de minería de datos, computación y modelización, con aplicaciones en medicina y economía, en este último caso, con la universidad privada Francisco de Vitoria.

Interés por la física teórica y las matemáticas

Catedrático de Matemática Aplicada en la Facultad de Informática de la Universidad Complutense en la actualidad, el doctor Vázquez se licenció en Ciencias Físicas por la Complutense en 1971, disciplina en la que se doctoró en la Universidad de Zaragoza en 1975, manifestó el doctor Romero en la presentación. De dicha institución se trasladó al Departamento de Matemáticas de la Universidad de Brown como investigador visitante (1975-1977). Incorporado como profesor al Departamento de Física Teórica de la Complutense, hizo una estancia en la División de Física Teórica del CERN en 1988. Diez años después, volvió a interesarse por las matemáticas, y durante el periodo 1987-90 se desplazó a Estados Unidos para trabajar en el Centro de Estudios No Lineales del Laboratorio Nacional de los Álamos.

Además de la actividad docente de su cátedra, ha sido durante más de diez años Codirector del Máster Bioinformática y Biología Computacional y de la Escuela de Verano Complutense sobre el mismo tema, además de responsable de la asignatura “Los escenarios científicos y tecnológicos emergentes y la defensa”, en la Cátedra Almirante Juan de Borbón. Ha dirigido 15 tesis doctorales y varios trabajos de fin de máster.

Ha sido Vicedecano de Investigación, Relaciones Externas y Alumnos de la Facultad de Físicas; Director Académico de Investigación, Director de la Oficina Europea de Investigación de la Complutense y fundador y Director del Centro de Supercomputación. En la Administración Central ha sido Coordinador del Área de Prospectiva Científica de la Agencia Nacional de Evaluación y Prospectiva, y ha participado en varios programas interinstitucionales, entre otros, como Coordinador del convenio entre la Complutense y la Universidad de Ciencia y Tecnología de Shanghái.

Sus líneas de investigación reflejan su interés por la física teórica y las matemáticas, plasmada en sus casi 200 publicaciones sobre dinámica no lineal, ecuaciones de onda no lineales, procesos estocásticos, física computacional, minería de datos, cálculo fraccionario, así como sobre radiación electromagnética y atmósfera de Marte.

Es doctor honoris causa por la Universidad de Ciencia y Tecnología de Shanghái, miembro de la Real Academia de Ciencias Exactas, Físicas y Naturales, y posee la Cruz del Mérito Militar con distintivo blanco y la Encomienda de la Orden de la Estrella de la Solidaridad Italiana.

Albert Einstein fue genial incluso en sus errores: se equivocó al negar que hubiera ondas en sus ecuaciones sobre el comportamiento cosmológico de la relatividad general, que son las ondas gravitacionales; negó la expansión del Universo, que hoy se explica como consecuencia de otro invento suyo: la energía del vacío; erró sobre los agujeros negros que forman parte de sus ideas, y arremetió contra la física cuántica a pesar de ser uno de sus inventores. La sesión “Las ondas gravitacionales: otro logro de Einstein”, de la Real Academia de Doctores de España (RADE) desveló que, incluso sus desaciertos son grandes e interesantes aportaciones al conocimiento científico.

El Académico de Número de la Sección de Ciencias Experimentales, doctor Manuel García Velarde, que actuó como moderador, introdujo la figura de Einstein en el terreno de lo humano. No fue inmortal, pero dejó obras inmortales de diversa índole; ni le dieron el Nobel por su Teoría de la Relatividad, que le hizo popularmente famoso, sino por el efecto fotoeléctrico, que permite abrir puertas cuando nos acercamos a ellas.

Einstein no solo se interesó por la cosmología y el infinito mundo, sino también de cosas muy pragmáticas. Un aspecto muy poco conocido de su biografía es que, con su amigo Szilard, un científico judío húngaro que intervino en el Proyecto Manhattan (la primera bomba atómica), patentó tres sistemas frigoríficos basados en los principios físicos de difusión, absorción y electromagnético), todos ellos completamente herméticos y sin partes móviles, que más tarde compró la compañía sueca AB Electrolux para eliminar que compitieran con sus propios modelos.

Se centró García Velarde en el error de Einstein, posteriormente reconocido por él mismo, sobre la existencia de ondas en las ecuaciones con que describió el comportamiento cosmológico de la relatividad general. Con un colaborador, Nathan Rosen, envió tres artículos a Physical Review, entre 1935 y 1936. Dos de ellos se publicaron de inmediato, pero el editor pasó el tercero a un especialista, que lo rechazó con un informe de diez páginas en el que decía que se había equivocado en sus cálculos y que había ondas en las ecuaciones. Einstein negó esta conclusión y, muy enfadado porque el editor pasara el artículo a un experto sin su permiso, envió el texto a Journal of de Franklin Institute, en 1937, que lo aceptó, pero, un mes antes de que se publicara, advirtió al editor que esperase porque tenía que corregirlo.

Rechazar el informe del experto de la primera revista “fue una demostración de estupidez clara y nítida, cosa que solo pueden cometer los inteligentes”, señaló García Velarde. Finalmente, Einstein rectificó y admitió que podía haber soluciones ondulatorias en sus ecuaciones: las ondas gravitacionales que se han detectado en 2015, un siglo más tarde de que Einstein las descubriera.

Personaje del siglo XX

Einstein fue elegido personaje del siglo XX por la revista TIME, porque sintetiza en su persona los aspectos más positivos y negativos del periodo, y no por su figura particular, sino por los acontecimientos de los que fue testigo y actor directo en muchos sentidos, afirmó José Luis Fernández Barbón, investigador científico del Instituto de Física Teórica del CSIC y la Universidad Autónoma de Madrid.

Einstein fue la primera gran celebridad mundial de la ciencia, cuando ya existía cierta cobertura mediática global, apuntó Barbón. En los años 20 y 30 del XX era tan famoso como Chaplin e, incluso, más popular de lo que puede ser hoy Stephen Hawking. Su imagen es un icono de la cultura pop, y se reproduce en infinidad de soportes, igual que su ecuación: E=mc2.

En 1095, cuando formuló la Teoría de la Relatividad, Einstein respondía a la pregunta que se hizo a los 15 años sobre si se podía ir más rápido que la luz. Revolucionó los conceptos de espacio y tiempo, al descubrir lo que ahora llamamos el espacio-tiempo, que es una especie de mezcla entre ambos, “muy parecida a la forma en que mezclamos las diferentes direcciones del espacio, de forma que el noroeste es una combinación entre la dirección norte y la oeste”, añadió Barbón. No se puede adelantar al rayo de luz porque su velocidad es un límite máximo en la naturaleza, continuó el ponente. Diez años más tarde, Einstein culminó su obra al afirmar que el espacio y el tiempo no forman un escenario pasivo, porque su estructura depende de la cantidad de energía que contenga.

La famosa ecuación sigue siendo válida hoy, porque no tenemos nada más avanzado, agregó. Ha sido comprobada en múltiples ocasiones desde 1919. Y, como un regalo de cumpleaños, una de sus consecuencias más espectaculares, la existencia de las ondas gravitacionales, se ha confirmado cien años después de su descubrimiento, al escuchar el sonido del choque entre dos agujeros negros muy grandes ocurrido a unos 1.300 millones de años luz; un sonido en forma de ondas que hacen vibrar la estructura del espacio.

Indicó Barbón que los griegos no interpretaron del todo bien la geometría, su gran contribución a la ciencia, y los matemáticos del siglo XIX se dieron cuenta de que la geometría real de la estructura del espacio podía ser diferente; es decir, curvada. Einstein planteó la posibilidad de que la luz pueda caer como una piedra en un campo gravitacional, ya que, al contener energía, se le puede asignar una masa. Y así es, la luz cae como una piedra; pero, como va muy rápida, no parece que caiga, como se ha demostrado experimentalmente. Es importante tener en cuenta este efecto porque, si no, el GPS de los móviles no funcionaría correctamente.

En virtud de la ecuación de Einstein, si hay materia en el espacio la energía que contiene lo curva y forma ondas de elasticidad o de curvatura. Cuanta más energía se acumule, más se curva, hasta un punto crítico en el que la elasticidad no soporta la tensión y se rompe para crear un agujero negro. Hoy no entendemos qué es un agujero negro, que será una meta de la física del futuro. Por otra parte, si la energía está uniformemente distribuida en el vacío, lo que denominamos energía del vacío, la consecuencia es que el espacio se estira, “y esto es lo que creemos que sirve de motor para la expansión del universo”, y no un efecto del Big Bang. “Cuando, hace unos 20 años, se midió con mucha precisión la velocidad de las galaxias más alejadas, se comprobó que, a pesar de que se atraen entre sí, su expansión se está acelerando. Y se cree que el motor de esa expansión es la energía del vacío; otro invento de Einstein”, agregó Barbón, antes de concluir que, incluso para las observaciones más exóticas que se han hecho se siguen manejando las teorías de Einstein, aunque no le gustaba la idea de la expansión del universo, ni que los agujeros negros fueran consecuencia inevitable de sus trabajos, y que se quisiera cargar la física cuántica, a pesar de ser uno de sus inventores. “Era tan genial, que incluso sus errores eran interesantes y están llenos de riqueza”, terminó.

Nueva herramienta para estudiar el Universo

Cerró las intervenciones el doctor Rafael Bachiller García, Académico de Número de la Sección de Ciencias Experimentales y Director del Observatorio Astronómico Nacional, que explicó la primera detección de las ondas gravitacionales y sus implicaciones astrofísicas, que calificó de “uno de los grandes éxitos de la física experimental de los últimos años”.

El 12 de febrero de 2016, Physical Review Letters publicaba el artículo Observación de ondas gravitacionales procedentes de la fusión de una agujero negro binario, que describía la primera detección directa de ondas gravitacionales y la primera observación de la fusión de agujeros negros, ocurrida el 14 de septiembre de 2015, que ha pasado a la historia como un éxito más de la Teoría de la Relatividad General de Einstein.

Los intentos de detección de estas ondas los inició Joseph Weber, a finales de los años 60, con unas barras metálicas, que suspendía con mucho cuidado, con la pretensión de observar en ellas pequeñas oscilaciones que pudiesen ser causadas por ondas gravitacionales. Se hicieron barras más sensibles en los años siguientes, pero nunca se detectó nada.

La primera detección directa de estas ondas la ha logrado el Observatorio de Ondas Gravitacionales con Interferómetro Láser (LIGO, en sus siglas inglesas), un proyecto con más de 40 años de historia. En los 70, se hicieron los primeros estudios sobre la posibilidad de detectar ondas gravitacionales con interferómetro láser, instrumento creado por Albert Michelson, un navegante que creía que la Tierra se mueve por un éter. Pero todos los intentos de percibir el éter fracasaron, y lo único que se demostró es que la luz viaja a la misma velocidad en todas direcciones y circunstancias, lo que apoyaba la Teoría de la Relatividad Especial.

LIGO se constituyó en 1984, como resultado de la colaboración del Instituto Tecnológico de California (Caltech) y del Instituto Tecnológico de Massachusetts (MIT). En 1992 se seleccionaron los dos observatorios que han logrado la primera detección de las ondas: Hanford, en Washington, y Livingston, en Luisiana, separados por una distancia de 3.000 kilómetros. En 1999 se inauguraron estos centros, que iniciaron la búsqueda en 2002. En 2014 se multiplicó la sensibilidad de los instrumentos: los componentes ópticos se colocaron en el vacío, de forma que, entre otras cosas, la luz láser pudiera viajar en línea recta por los brazos del sistema, de cuatro kilómetros de largo. Y se mejoraron también los sistemas internos y externos de aislamiento sísmico. El objetivo era que todo el sistema funcione de manera perfecta y en el vacío. Por fin, en 2015 se consiguió la primera detección. Según Bachiller, ha habido tres detecciones hasta ahora, y se cree que se puede obtener una al mes. Otros observatorios del mismo tipo funcionan en Italia, Alemania y Japón, y un centro de la Universidad de las Islas Baleares participa en el proyecto.

El éxito de LIGO abre un futuro muy prometedor para el estudio de las ondas gravitacionales, como una nueva herramienta para comprender el Universo, destacó Bachiller. Hasta hoy, el 99 por ciento de la astronomía se basaba en el análisis de la radiación electromagnética; pero, a partir de ahora, se cuenta con unas ondas diferentes que permiten investigar fenómenos muy energéticos que involucren grandes masas concentradas en pequeñas regiones del espacio.

Antes de clausurar el acto, el Presidente de la RADE y de la sesión, Jesús Álvarez Fernández-Represa, manifestó que Einstein sufría un aneurisma de aorta, del que fue operado, según la técnica de la época, envolviéndolo con papel de celofán. Al cabo de un tiempo, el aneurisma se rompió y se propuso al enfermo una nueva intervención, pero Einstein se negó, aunque sabía que significaba la muerte.

El estudio del clima marciano dará luz sobre el cambio climático terrestre, según el doctor Luis Vázquez

· El catedrático de Matemática Aplicada de la Complutense, de larga trayectoria en la exploración del Planeta Rojo, ha ingresado como académico correspondiente en la Real Academia de Doctores de España
· La pérdida de una magnetización intensa que protegía la superficie marciana del viento solar y retenía la atmósfera y el agua, ha sido la causa de que el planeta se haya convertido de húmedo en árido
· “El entorno espacial es estratégico para la universidad, porque es interdisciplinar y transdisciplinar, globalizador, internacional y abre la conexión natural con la industria”, el nuevo académico


MADRID (25-01-17).- “El estudio de los mecanismos del cambio climático global de Marte permitirá dar luz sobre las variaciones del clima en la Tierra”, afirmó el doctor Luis Vázquez Martínez, durante su toma de posesión como académico correspondiente de la Sección de Ciencias Experimentales de la Real Academia de Doctores de España (RADE).

“Se acabó el tiempo en el que un banco, por ser tan grande, no pueda caer”, manifestó el doctor Rafael Morales-Arce, Académico de Número de la Sección de Ciencias Políticas y de la Economía, de la Real Academia de Doctores de España (RADE), y catedrático de Economía Financiera, en la sesión titulada “Retos y desafíos para la banca: entre la mayor regulación y el nuevo modelo de negocio”, que estuvo presidida por el Secretario General de la corporación, Emilio de Diego García.

Hay que reinventar la banca, afirmó el conferenciante antes de aseverar que “estamos ante la asunción de urgentes procesos de fusión entre las entidades” que, lo primero que harán, en su opinión, es la autocrítica del modelo de negocio, cuyo margen se va deteriorando, según los datos de los últimos ejercicios. Y se va a deteriorar más, prosiguió, cuando las denominadas fintech, sociedades financieras con soportes tecnológicos, que no están sujetas a las regulaciones y controles de la banca tradicional, invadan más el terreno de la actividad bancaria.

Según Morales-Arce, será necesario sanear los balances, mejorar el ratio de eficiencia y reducir la morosidad, aspectos sobre los que aportó una gran riqueza de datos. Y también “será necesaria una autocrítica del comportamiento de los directivos de algunas instituciones, que no han estado a la altura de lo que la tradición del sistema aconseja. Finalmente, se precisa una reflexión de todos los ciudadanos, si no queremos ser víctimas de comportamientos abusivos e intolerables como los que hasta ahora hemos soportado”, añadió.
El futuro de la banca se dibuja muy difícil. Además de la competencia creciente de las fintech, que pugnan por los segmentos más rentables del negocio bancario, el sistema crediticio ha registrado una perdida de imagen importante por las cláusulas suelo y, sobre todo, porque se han otorgado préstamos hipotecarios en cestas de divisas y se han repartido costes en la formalización de las hipotecas, actuaciones que han sido sancionadas por las autoridades judiciales europeas,

A más regulación: más dificultades

Pero más significativo es, para el ponente, que la banca no solo está perdiendo imagen, sino que se está sujeta al aumento progresivo de exigencias de regulación desde Bruselas, que hacen más difícil el comportamiento razonables de estructuras y operaciones; y porque el entorno digital, que afecta al sector de manera sustancial, modificará la estructura de las operaciones, los medios y la competitividad, puesto que habrá otras empresas que tratarán de impulsar y participar en el sistema financiero ampliado que ahora se inicia.

El entorno económico que nos espera en este año, no es halagüeño, apuntó: el PIB va a reducirse, según estimaciones del Gobierno, de un 3,3 a un 2,6, porque el consumo privado y el público van a reducirse un 0,6 y un 1,2, respectivamente. Y, lo que es más importante, va a decrecer también la inversión de un 3,6 a un 2,9, lo que afectará a la economía nacional al no favorecer que crezca la productividad. Por otra parte, la expansión del comercio exterior descenderá de un 4,2 a un 3,7 por ciento.

El empleo crecerá menos, un 2,3 por ciento, que en 2016, que fue de un 2,8. El IPC, negativo hasta ahora, estará entre un 1,7 y un 2, “y habrá que tentarse el bolsillo”, agregó. Según el Gobierno, el déficit público pasaría de un 4,6 a un 3,4, aunque Morales-Arce no lo cree; y el petróleo Brent, trascendental para el IPC, pasa de 45 dólares a 60.

“Tenemos que prepararnos para un año en el que, si no cambian las circunstancias, será de mayor apelación al bolsillo del ciudadano”, dijo, puesto que los ingresos públicos, que en 2016 crecieron un 2 por ciento, aumentarán en tres décimas en 2017. Y, a pesar de que los impuestos sobre la producción se reducirán de un 4,1 a un 3,7, los de la renta y los directos tendrán una evolución de menos del 2,6 a un 4,2 por ciento.

Exceso de endeudamiento y elevado riesgo financiero

En el ámbito financiero, hay exceso de endeudamiento, tanto público como de empresas y familias, y existe un elevado riesgo financiero como consecuencia de las decisiones que tomen los mercados en relación con el Brexit, las elecciones en países europeos importantes y la actuación del nuevo Presidente de los Estados Unidos. Los tipos de interés, continuó, están en niveles muy bajos y van a continuar así, e incluso negativos, “pero desde la subida de un cuarto de punto en Estados Unidos, es previsible que ocurra igual en Europa, Y, por último, las cotizaciones bancarias están lastradas por la baja rentabilidad estructural”.

El ratio de deuda sobre el PIB es del 102,8 por ciento, “lo quiere decir que, si el ratio del Tratado de Maastricht es del 60 por ciento, estamos 40 puntos por encima”, agregó. En esta situación, que el Tesoro coloque emisiones de activos financieros públicos a tipos negativos, “es como hacerse trampas en el solitario, porque sigue aumentando la deuda”, afirmó. Sobre este tipo de operaciones, Morales-Arce manifestó que “las emisiones de deuda a tipos de interés negativo sirven para rescatar empréstitos anteriores a tipos más altos; pero si se hacen para financiar gasto consuntivo, y no inversión, se reduce la productividad del conjunto de la economía. Y eso es algo que debe entender cualquier ciudadano al tomar decisiones respecto a las personas que gobiernen las instituciones financieras y políticas”.

El volumen de actividad del sistema crediticio a diciembre de 2016 alcanzó los casi cuatro billones de euros, que es cerca de cuatro veces el PIB de un año. Aumentó el peso del sector público, un 3,5 por ciento, mientras se redujo la del privado, menos 1,9; los recursos, depósitos y otros pasivos en las entidades disminuyeron un 0,1 por ciento, y el resto del pasivo bajo un 14, con una morosidad de un 9,2 por ciento. Eso significa que de los cuatro billones de activos, 400.000 millones no han vuelto a las instituciones ”y suponen un agujero en las cuentas del sistema”, salvo el 59,3 por ciento de esta cifra, que está cubierta por las provisiones.

De 2008 a 2016, la proporción de ahorro sobre la renta disponible de las familias se ha reducido de un 6,9 a un 1,8. En el primer año, el tipo de interés medio de los depósitos era de un 4,2 por ciento, y ha bajado al 0,1, lo que indica que la mayor parte de los depósitos de los ahorradores no tiene retribución o la tiene simbólica.

Exceso de activos improductivos

Repasó Morales-Arce los resultados de las pruebas de esfuerzo hechas a partir del 1 de enero de 2016, por la Autoridad Bancaria Europea, sobre el 70 por ciento del sistema financiero europeo, que son 51 entidades, sobre la base de que cualquiera que tenga menos de un 5,5 por ciento de fondos propios sobre activos va a tener turbulencias y necesita ser supervisada y, en su caso, reconstruida. De las analizadas, solo dos, una italiana y una irlandesa, no cumplían los requisitos. Las seis españolas cubren razonablemente, con un ratio que supera el 8,6, por lo que no necesitaban, de momento, ampliar de capital y podían pagar dividendos.

“Pero hay importante retos para el regulador, porque la rentabilidad de la mayor parte de las entidades es baja, y hay un excesivo volumen de activos improductivos”, señaló el conferenciante. En todas las entidades bajaba el ratio del capital del sistema, lo que da pie para que, a partir de 2017, se implante un nuevo sistema de valoración de riesgos, el Basilea 4, que puede hacer aún más difícil la sostenibilidad de algunas instituciones.

Las entidades menores también han hecho un ejercicio de transparencia que afecta a 131 bancos, de los que 14 son españoles. El resultado ha sido que la rentabilidad de los fondos propios es de un 5,6, pero el coste de capital es de un 9, lo que las hace insostenibles, excepto que se sometan a una reestructuración total de oficinas, empleados y servicios, que será muy difícil en un momento en que los gobiernos son débiles para autorizar operaciones de reducción del tamaño.

Todos pagaremos el rescate bancario

En relación con el rescate bancario, Morales-Arce resaltó que, si se acepta la valoración oficial de los activos, como ha hecho el Tribunal de Cuentas, el coste representa 60.720 millones de euros, “algo distinto a lo que decía el ministro de Economía: que la crisis del sistema no iba a costar un céntimo a los españoles”. Al volver sobre el tema en el coloquio, subrayó que esa sería la cifra suelo, pero el techo aún no se sabe “porque incluso puede ser mayor de los 122.122 millones de euros comprometidos en el rescate, ya que el Fondo de Garantía de Depósitos tiene unos recursos de 1.200 millones en estos momentos, y poco se puede hacer con eso. Tendrá que ser, al final, el Estado el que tenga que soportar la operación”.

Durante el coloquio, Morales-Arce aseguró que las autoridades, una vez más, no están diciendo la realidad de la economía española. Dicen que en 2017 vamos a practicar una política de ingresos públicos que limitan el gasto financiero del Estado a 118.000 millones de euros, pero la Seguridad Social va a gastar más de 140.000 millones, que no vienen de los ingresos del Estado, sino de las cotizaciones sociales, que no pasan de 120.000 millones de euros. Dado que el gasto en pensiones es de 140.000, la diferencia de 20.000 millones tendrá que retraerse de los 118.000, que son el techo de gasto del Estado. Sin embargo, no se está planteando ninguna reducción de costes de las Administraciones.

Negó el ponente que esté a favor de una concentración bancaria, aunque mejoraría la rentabilidad, pero generaría paro; y se mostró partidario de racionalizar y concentrar entidades pequeñas que tienen rentabilidades mayores que las grandes y funcionan. “Además, no sería posible una concentración oligopólica, porque no lo permitiría la UE”.

“Se acabó el tiempo en el que un banco, por ser tan grande, no pueda caer”, según el académico y catedrático Rafael Morales-Arce

· En un entorno económico nada halagüeño y lleno de incertidumbres, hay que reinventar la banca para frenar el deterioro de su modelo de negocio, según el miembro de la Real Academia de Doctores de España
· “Estamos ante la asunción de urgentes procesos de fusión entre las entidades”, afirmó el también catedrático de Economía Financiera
· “Será necesario sanear los balances, mejorar el ratio de eficiencia y reducir la morosidad, además de la autocrítica del comportamiento de los directivos de algunas instituciones
· Al problema de la pérdida de imagen de la banca se suman el aumento de exigencias de regulación desde Bruselas, la influencia del entorno digital y la competencia de otras empresas financieras que invadirán más el sector

MADRID (30-01-17).- “Se acabó el tiempo en el que un banco, por ser tan grande, no pueda caer”, manifestó el doctor Rafael Morales-Arce, Académico de Número de la Sección de Ciencias Políticas y de la Economía, de la Real Academia de Doctores de España (RADE), y catedrático de Economía Financiera, en la sesión “Retos y desafíos para la banca: entre la mayor regulación y el nuevo modelo de negocio”.

Hay que reinventar la banca, afirmó el conferenciante, para añadir que “estamos ante la asunción de urgentes procesos de fusión entre las entidades” que, lo primero que harán, en su opinión, es la autocrítica del modelo de negocio, cuyo margen se va deteriorando, según los datos de los últimos ejercicios. Y se va a deteriorar más, prosiguió, cuando las denominadas fintech, sociedades financieras con soportes tecnológicos, que no están sujetas a las regulaciones y controles de la banca tradicional, invadan más el terreno de la actividad bancaria.

Según Morales-Arce, será necesario sanear los balances, mejorar el ratio de eficiencia y reducir la morosidad, al tiempo que aportaba una gran riqueza de datos. Y también “será necesaria una autocrítica del comportamiento de los directivos de algunas instituciones, que no han estado a la altura de lo que la tradición del sistema aconseja. Finalmente, se precisa una reflexión de todos los ciudadanos, si no queremos ser víctimas de comportamientos abusivos e intolerables como los que hasta ahora hemos soportado”.

El futuro de la banca se dibuja muy difícil. Además de la competencia creciente de las fintech, que pugnan por los segmentos más rentables del negocio bancario, el sistema crediticio ha registrado una perdida de imagen importante por las cláusulas suelo y, sobre todo, porque se han otorgado préstamos hipotecarios en cestas de divisas y se han repartido costes en la formalización de las hipotecas, lo que ha sido sancionado por las autoridades judiciales europeas,

A más regulación: más dificultades

Pero más significativo es, para el ponente, que la banca no solo está perdiendo imagen, sino que se está sujeta al aumento progresivo de exigencias de regulación desde Bruselas, que hacen más difícil el comportamiento razonables de estructuras y operaciones; y porque el entorno digital, que afecta al sector de manera sustancial, modificará la estructura de las operaciones, los medios y la competitividad, puesto que habrá otras empresas que tratarán de impulsar y participar en el sistema financiero ampliado que ahora se inicia.

A los problemas específicos del sector bancario se une un nada halagüeño entorno económico previsto para 2017, con un PIB que va a reducirse, según el Gobierno, de un 3,3 a un 2,6; el descenso de la inversión, de un 3,6 a un 2,9, que afectará a la productividad, y la disminución en la expansión del comercio exterior, de un 4,2 a un 3,7 por ciento. El empleo crecerá menos, un 2,3 por ciento, que en 2016, un 2,8. El IPC, negativo hasta ahora, estará entre un 1,7 y un 2, con el petróleo Brent que sube de 45 dólares a 60. Y Morales-Arce no cree que el déficit pública pase de un 45,6 a un 3,4, como prevé el Gobierno.

“Tenemos que prepararnos para un año en el que, si no cambian las circunstancias, será de mayor apelación al bolsillo del ciudadano”, dijo, puesto que los ingresos públicos, que en 2016 crecieron un 2 por ciento, aumentarán en tres décimas en 2017. Y, a pesar de que los impuestos sobre la producción se reducirán de un 4,1 a un 3,7, los de la renta y los directos tendrán una evolución de menos del 2,6 a un 4,2 por ciento.

Exceso de endeudamiento y de riesgo financiero

En el ámbito financiero, hay exceso de endeudamiento, tanto público como de empresas y familias, y existe un elevado riesgo financiero como consecuencia de las decisiones que tomen los mercados en relación con el Brexit, las elecciones en países europeos importantes y la actuación del nuevo Presidente de los Estados Unidos. Los tipos de interés, continuó, están en niveles muy bajos y van a continuar así, e incluso negativos, “pero desde la subida de un cuarto de punto en Estados Unidos, es previsible que ocurra igual en Europa, Y, por último, las cotizaciones bancarias están lastradas por la baja rentabilidad estructural”.

Con un ratio de deuda sobre el PIB del 102,8 por ciento, que el Tesoro coloque emisiones de activos financieros públicos a tipos negativos, “es como hacerse trampas en el solitario, porque sigue aumentando la deuda”, afirmó. Sobre este tipo de operaciones, Morales-Arce manifestó que “las emisiones de deuda a tipos de interés negativo sirven para rescatar empréstitos anteriores a tipos más altos; pero si se hacen para financiar gasto consuntivo, y no inversión, se reduce la productividad del conjunto de la economía. Y eso es algo que debe entender cualquier ciudadano al tomar decisiones respecto a las personas que gobiernen las instituciones financieras y políticas”.

El volumen del sistema crediticio a diciembre de 2016 alcanzó los casi cuatro billones de euros, que es cerca de cuatro veces el PIB de un año. Aumentó el peso del sector público, un 3,5 por ciento, mientras se redujo el del privado, menos 1,9; los recursos, depósitos y otros pasivos en las entidades disminuyeron un 0,1 por ciento, y el resto del pasivo bajo un 14, con una morosidad de un 9,2 por ciento. Eso significa que de los cuatro billones de activos, 400.000 millones no han vuelto a las instituciones ”y suponen un agujero en las cuentas del sistema”, salvo el 59,3 por ciento de esta cifra, que está cubierta por las provisiones.

De 2008 a 2016, la proporción de ahorro sobre la renta disponible de las familias se ha reducido de un 6,9 a un 1,8. En el primer año, el tipo de interés medio de los depósitos era de un 4,2 por ciento, y ha bajado al 0,1, lo que indica que la mayor parte de los ahorradores no tiene retribución o la tiene simbólica.

Demasiados activos improductivos

Al repasar los resultados de las pruebas de esfuerzo hechas a partir del 1 de enero de 2016, por la Autoridad Bancaria Europea, sobre 51 entidades financieras europeas, solo dos, una italiana y una irlandesa, cumplían los requisitos. Las seis españolas los cubren razonablemente, con un ratio que supera el 8,6, mayor que el 5,5 exigido, por lo que no necesitaban, de momento, ampliar de capital y podían pagar dividendos. “Pero hay importante retos para el regulador, porque la rentabilidad de la mayor parte de las entidades es baja, y hay un excesivo volumen de activos improductivos”, señaló el conferenciante. En todas las entidades bajaba el ratio del capital del sistema, lo que da pie para que, a partir de 2017, se implante un nuevo sistema de valoración de riesgos, el Basilea 4, que puede hacer aún más difícil la sostenibilidad de algunas instituciones.

En cuanto a las entidades menores, que también han hecho un ejercicio de transparencia que afecta a 131 bancos, de los que 14 son españoles, el resultado ha sido que la rentabilidad de los fondos propios llega a un 5,6, pero el coste de capital es de un 9, lo que las hace insostenibles, excepto que se sometan a una reestructuración total de oficinas, empleados y servicios, que será muy difícil en un momento en que los gobiernos son débiles para autorizar operaciones de reducción del tamaño.

Rescate bancario: sin techo conocido aún

En relación con el rescate bancario, Morales-Arce resaltó que, si se acepta la valoración oficial de los activos, como ha hecho el Tribunal de Cuentas, el coste representa 60.720 millones de euros, “algo distinto a lo que decía el ministro de Economía: que la crisis del sistema no iba a costar un céntimo a los españoles”. Al volver sobre el tema en el coloquio, subrayó que esa sería la cifra suelo, pero el techo aún no se sabe “porque incluso puede ser mayor de los 122.122 millones de euros comprometidos en el rescate, ya que el Fondo de Garantía de Depósitos tiene unos recursos de 1.200 millones en estos momentos, y poco se puede hacer con eso. Tendrá que ser, al final, el Estado el que tenga que soportar la operación”.

Durante el coloquio, Morales-Arce aseguró que las autoridades, una vez más, no están diciendo la realidad de la economía española. Se asegura que en 2017 vamos a practicar una política de ingresos públicos que limitan el gasto financiero del Estado a 118.000 millones de euros, pero la Seguridad Social va a gastar más de 140.000 millones, que no vienen de los ingresos del Estado, sino de las cotizaciones sociales, que no pasan de 120.000 millones de euros. Dado que el gasto en pensiones es de 140.000, la diferencia de 20.000 millones tendrá que retraerse de los 118.000, que son el techo de gasto del Estado. Sin embargo, no se está planteando ninguna reducción de costes de las Administraciones Públicas.

Martín Almagro Gorbea confirma las raíces celtas de la literatura castellana y de la vasca

El estudio interdisciplinar que aportan diversas ciencias al campo arqueológico confirma las raíces celtas de la literatura castellana popular y de la vasca, a la que se atribuye una tradición euscalduna por motivos ideológicos, afirmó el doctor Martín Almagro Gorbea al ingresar como miembro de Número en la Real Academia de Doctores de España (RADE), con la medalla número 32, de la Sección de Humanidades, con su discurso Las raíces celtas de la literatura castellana. Presidió la sesión el titular de la RADE, Jesús Álvarez Fernández-Represa, acompañado del Secretario General, Emilio de Diego García, que respondió el discurso del recipiendario; y de Antonio González González, José María Martínez-Val Peñalosa e Ignacio Buqueras y Bach, presidentes respectivos de las secciones de Medicina, Ingeniería y Humanidades, respectivamente.

Como arqueólogo y prehistoriador, Almagro Gorbea, Académico de Número de la Real de la Historia, se siente atraído por la evolución de las culturas prehistóricas y los procesos de etnogénesis y de formación de los pueblos, que permiten comprender la evolución de la cultura humana que explica nuestra forma de ser y de pensar. Con ese afán ha estudiado los últimos milenios antes de Cristo de la antigua Hispania, en los que se forman los pueblos tartesios, iberos, celtas y vascos que, a través de la romanización y la islamización, constituyen las raíces etnoculturales y demográficas de España.

Los datos que ofrece la arqueología sobre este periodo se enriquecen, añadió, con la necesaria interdisciplinariedad de otras ciencias: historia y geografía de la antigüedad, epigrafía y numismática, lingüística, antropología, historia de las religiones, etnoarqueología y literatura, a las que se añaden antropología física y biología, demografía y técnicas de análisis arqueométricos de las ciencias físicas y naturales. No debe sorprender, apuntó, que se hable de literatura en culturas que desconocían la escritura o la usaban muy limitadamente, porque al ser su instrumento la palabra incluye las tradiciones orales previas a la escritura.

Pueblo de estirpe europea

Los celtas, cuyas tradiciones literarias ha analizado el académico, eran un pueblo de estirpe indoeuropea que formaban la base étnica y cultural de todo el occidente de Europa, incluida gran parte de la Península Ibérica, donde, desde el tercer milenio antes de Cristo, existían poblaciones protoceltas muy arcaicas extendidas entre las regiones occidentales atlánticas hasta la meseta y el Sistema Ibérico, así como desde Galicia a todo el País Vasco, un área que constituía la llamada Hispania Celtica. Celta es un concepto etnocultural complejo, variable en el tiempo y el espacio, cuyo estudio es campo de la historia antigua, la lingüística y la arqueología, a las que hay que añadir las tradiciones etnológicas, que incluyen los restos conservados de la literatura oral céltica.

La literatura celta es centro del interés de los expertos desde el siglo XIX, que consideran como tal la escrita en lenguas goidélicas -irlandés, gaélico escoces y manés-, o britónicas -galés, córnico y bretón-; y en el continente, entre galos, leponcios, ligures, réticos e hispanoceltas, de los que destacaban los celtíberos. De estas lenguas quedan testimonios epigráficos en estelas de piedra, bronces, cerámicas o monedas.

Recorrió el nuevo académico la literatura celta de Irlanda, de transmisión oral, con la que bardos y poetas componían cánticos sobre el origen divino y el poder sobrenatural de sus héroes, que culmina en la novela medieval caballeresca de Bretaña. Literatura céltica existió también en Escocia, Gales y Bretaña. En esta última, a partir del siglo XI, trovadores errantes extendieron por Europa relatos mítico-históricos celtas, con leyendas como Tristán e Isolda, El Rey Arturo y los Caballeros de la Tabla Redonda y El Santo Grial. “Su influencia es evidente en libros de caballerías que inspiraron la obra máxima de nuestra literatura, Don Quijote de la Mancha, cuyas remotas raíces celtas tantas veces pasan desapercibidas”.

Liras representadas en las estelas de guerrero aparecidas en Extremadura y en Luna (Zaragoza), textos celtibéricos en bronce relativamente largos, la evidente continuidad de tradiciones y costumbres conservadas hasta los siglos IX y X por poblaciones celtas desde Burgos y Soria al norte de Guadalajara, autores latinos que hablan de cánticos épicos guerreros de lusitanos, cántabros o galaicos en sus lenguas bárbaras y escenas iconográficas, testimonian la existencia generalizada en la Hispania Celtica, desde el II milenio antes de Cristo, de poemas épicos con episodios de combates de campeones y otros temas, y seres fabulosos comparables a los poemas galos e irlandeses. Lamentablemente, subrayó Almagro Gorbea, no tuvieron continuidad los estudios pioneros de Joaquín Costa, que reivindicó la existencia de cantares de gesta castellanos a través de creaciones épicas que perduraron en la literatura popular española. Sin formar poemas completos, estas pervivencias se conservan en episodios de obras como El cantar de Mío Cid, el Poema de Fernán González, el Cantar de los Siete Infantes de Salas o la Gesta de las Mocedades de Rodrigo, así como en algunos romances castellanos.

Narraciones vascas de carácter celta

A los testimonios en la épica castellana se suman las narraciones histórico-míticas sobre el inicio de los “reinos” cristianos en Vizcaya y Navarra, transmitidas en la época bajomedieval, cuyas características y estructura proceden de poemas celtas prosificados, pues ofrecen detalles que no pueden explicarse de otro modo, advirtió el recipiendario. En estas leyendas destaca como protagonista un joven guerrero que vence y consolida el reino y se convierte en creador de la dinastía, como el “héroe fundador” de la época prerromana. Propugnó el nuevo académico el estudio crítico de estas creaciones literarias, tanto de sus fuentes y su evolución como de sus temas, relacionados con las creencias animistas de la rica y abundante mitología de la Hispania Celtica, que confirman las raíces celtas de gran parte de España y contribuyen a conocer las creencias célticas prerromanas, transmitidas por medios orales.

La literatura del País Vasco, según el conferenciante, “afronta la dificultad de que la religión y los mitos atribuidos a los vascones no se han diferenciado de los pertenecientes a los pueblos celtas que habitaban el territorio vasco en la antigüedad, y la misma confusión se observa en las creaciones literarias”. El País Vasco, poblado por várdulos, carisios y autrigones, formaba parte de la Hispania Celtica, mientras que los vascones, precedentes de los actuales euscaldunes, habitaban las áreas pirenaicas de Navarra hasta el Pirineo Central y buena parte de la Aquitania. Por ello, prosiguió, “gran parte de lo que se considera literatura vasca, pues se atribuye sin más a la tradición euscalduna, forma parte de la literatura de la Hispania Celtica, hecho acorde con el carácter celta de las poblaciones del País Vasco en la antigüedad”.

Esta confusión ha dificultado la correcta interpretación de las narraciones conocidas, “al considerarse todas de origen euscaldún por prejuicios ideológicos, frente a los datos objetivos que ofrece su análisis. En esta literatura celto-vasca aparecen númenes y dioses antropomorfos, gigantes y animales característicos de la religión celta, el caballo, el toro, el jabalí, el carnero, la cabra, el perro, la serpiente, el buitre, etc., además de monstruos míticos, como el dragón. También son celtas los gentiles y moros y las lamiak o lamias, seres femeninos con cuerpo de mujer y extremidades inferiores de pez como las sirenas que habitaban las fuentes, ríos y cuevas”.

Diversos relatos histórico-míticos sobre el origen de los señores de Vizcaya confirman el profundo carácter celta del País Vasco, que conservó hasta la Alta Edad Media la tradición épico-histórica hispano-celta, como evidencian los protagonistas, la trama y numerosos detalles. Del personaje heroico histórico-mítico, fundador de una dinastía y de un pequeño estado, existen varias versiones, como Froom, Juan Zuria o Diego López, Señor de Vizcaya, quienes, en su época, serían considerados como un rikx o rey celta, pues se asocian a ritos de entronización real relacionados con el Árbol de Guernica, característicos de la ideología y la religión celtas. Y el mismo esquema de tradición épico-mítica ofrece Sancho Abarca en Navarra, origen de la dinastía del mismo nombre. Estas narraciones sobre el origen del Señoría de Vizcaya y de Navarra deben considerarse celto-vascas por su origen y temática, y deben asociarse a las conservadas en los más antiguos cantares de gesta castellanos, pertenecientes a este mismo periodo y con protagonistas y argumentos muy parecidos, como el Cantar de Fernán González, el Cantar de los Siete Infantes de Salas, la Gesta de las Mocedades de Rodrigo y diversos episodios del Cantar de Mío Cid.

El conjunto de estas narraciones histórico-míticas celto-vascas constituyen, “una importante aportación para conocer los verdaderos orígenes de la literatura vasca al margen de los tópicos preestablecidos y, en un sentido más general, ilumina los complejos orígenes de la literatura castellana, entre los que hay que incluir estos precedentes celtas que hasta ahora habían pasado desapercibidos”, concluyó Almagro Gorbea.

Una pasión heredada de su progenitor

La afición por el estudio de los primeros tiempos de la humanidad es una pasión heredada de su progenitor, Martín Almagro Basch, uno de los más importante arqueólogos españoles del siglo pasado, manifestó Emilio de Diego García al contestar el discurso de ingreso de Almagro Gorbea.

El recipiendario se licenció en Filosofía y Letras en la Universidad de Madrid, en 1969, donde se doctoró, en ambos casos con premio extraordinario, en 1973, con la tesis El Bronce Final y la Edad del Hierro en la Meseta Sur. Tras ingresar en el Cuerpo Facultativo de Archiveros, Bibliotecarios y Arqueólogos, fue Director del Museo Arqueológico de Ibiza, Conservador del Museo Arqueológico Nacional y Director de la Escuela Española de Historia y Arqueología de Roma, donde refundó su revista científica Itálica y publicó El santuario de Juno en Gabii, así como Los telegramas entre Franco y Mussolini, conservados en archivos italianos. En 1998 fue llamado a la dirección del Museo Arqueológico Nacional, cargo que había ocupado su padre.

Ha sido profesor adjunto del Departamento de Prehistoria de la Complutense de 1968 a 1976, año en que ganó la cátedra de Prehistoria y Arqueología de la Universidad de Valencia, de cuyo departamento fue Director. En 1981 accedió a cátedra en la Complutense, donde ha sido Director del Departamento de Prehistoria. En ella fundó la revista Complutum y dirigió numerosos trabajos académicos, entre ellos 39 tesis doctorales. En 1995 fue elegido Académico de Número de la Real Academia de la Historia donde, desde prácticamente su ingreso, es Anticuario Perpetuo. Como investigador, ha desarrollado numerosos trabajos de campo, en España, Italia, Irlanda, Córcega, Alemania, Nubia y Francia. Ha desempeñado destacadas actividades relacionadas con proyectos del Patrimonio Cultural e intervenido en grandes exposiciones nacionales e internacionales. Es autor de 20 libros, 351 artículos y colaborador de 188 obras colectivas. Es miembro de diferentes asociaciones e instituciones académicas extranjeras y nacionales, entre otras, de la Real Sociedad Bascongada de Amigos del País.

Revolucionar la investigación en espermatología, reto del siglo XXI en técnicas de reproducción animal

Encontrar una línea de investigación revolucionaria en espermatología que mejore la eficacia del semen refrigerado y congelado, con un enfoque multidisciplinar que aporte soluciones nuevas para problemas muy antiguos, es el reto del siglo XXI en técnicas de reproducción animal. Esta fue una de las conclusiones de la mesa redonda “Nuevas tecnologías en producción y reproducción animal”, organizada por la Sección de Veterinaria de la Real Academia de Doctores de España (RADE).

Durante la sesión, que presidió el titular de la RADE, Jesús Álvarez Fernández-Represa, el Académico de Número y Presidente de la Sección de Veterinaria, Emilio Espinosa Velázquez, resaltó que ninguna tecnología reproductiva podrá compararse con la importancia e impacto que supuso la domesticación de las especies salvajes iniciada en Oriente Próximo, hace 10.500 años, con la cabra, la oveja, el cerdo, la vaca y el caballo.

La conservación de gametos, la inseminación artificial y el control hormonal del ciclo son biotecnologías reproductivas que se desarrollaron desde el comienzo del siglo XX hasta los años 60,. apuntó el ponente. A partir de 1970 surgieron la transferencia, la congelación y la división de embriones. Diez años después, el sexaje de espermatozoides y de embriones. En 1990 se abrió paso la clonación con células somáticas y, desde 2000, la transgénesis, el Gen Farming y las células madre.

Se centró Espinosa en la producción de embriones in vitro, para describir sus diversas operaciones. En este ámbito, señaló que la microinyección pronuclear fue la primera técnica diseñada para la transferencia de genes, y ha generado con éxito animales transgénicos: ratones, cerdos, ovejas, conejos, ratas, cabras y vacas. En cuanto al diagnostico premplantatorio, afirmó que debería ser únicamente una técnica médica para prevenir enfermedades genéticas, de las que se conocen mas de tres mil, de las que unas trescientas están ligadas al sexo (cromosoma X). “El problema de esta técnica es que se puede utilizar para seleccionar las características del nuevo ser, que es para lo que no debería usarse”, dijo.

Riesgo de empobrecimiento genético

El objetivo zootécnico de la clonación por transferencia de núcleos es obtener un gran número de copias de un individuo de alto valor genético. Esta técnica, indicó Espinosa, supone un cambio radical en la ganadería del futuro, aunque también un preocupante empobrecimiento genético de la población animal, por lo que hay que usarla con cautela. “La diversidad genética entre razas e individuos es una riqueza que debemos proteger, y la clonación puede suponer un riesgo para mantener el suficiente polimorfismo genético de las poblaciones animales”, añadió.

La transgénesis, continuó, permite crear un individuo diferente al de su patrimonio genético por introducción de ADN para mejorar la producción de leche, carne, lana o huevos, aumentar la resistencia a ciertas enfermedades y producir proteínas de alto valor. En cualquier caso, es necesario controlar todos los parámetros fisiológicos susceptibles de ser modificados por la introducción de un transgén, ya que cualquier error podría ocasionar efectos catastróficos en el espacio y el tiempo.

Al hablar del control reproductivo para mejorar la productividad y mencionar el uso de progestágenos, advirtió que, debido a los residuos que dejan en la carne y otros derivados, algunas sustancias de efecto estrogénico, androgénico o gestágeno pueden ser peligrosas para los consumidores y afectar a la calidad de los productos alimenticios de origen animal. Por ello, la UE ha prohibido el uso de estas hormonas en bovinos, ovinos y caprinos, porcinos, équidos, aves de corral, acuicultura, leche, huevos, conejos, caza silvestre, caza de cría y miel.

Problemas sin resolver

Las técnicas de reproducción asistida siguen teniendo sentido en el XXI para producir alimentos seguros, sometidas a requisitos como los marcados por la UE, mientras sean sostenibles y contribuyan al desarrollo y preservación de zonas rurales, razas y productos locales con marca de calidad, así como para conservar especies silvestres, manifestó José Julián Garde López-Brea, Académico Electo de la RADE, que trabaja desde 1990 sobre el espermatozoide y las tecnologías seminales en la Universidad de Castilla-La Mancha, de la que es Vicerrector de Investigación y Política Científica, “porque hay cuestiones sin resolver en este campo”, aseguró.

El objetivo general de estas técnicas es mejorar la eficacia de los procesos tecnológicos aplicados al semen al objeto de mantener su capacidad fecundante en niveles similares a los del semen fresco no manipulado. “Ese es el reto que sigue sin resolverse en la mayoría de especies. En el ovino, la monta natural da una fertilidad por encima del 92 o 93 por ciento, y en inseminación artificial no llega al 50. Y eso, hablando de semen refrigerado, porque el congelado es aún más complicado”, advirtió.

La investigación se centra en estudiar e identificar lesiones y microlesiones producidas en los espermatozoides por las tecnologías espermáticas, así como desarrollar metodologías alternativas que aumenten la fertilidad y disminuyan el daño en los espermatozoides sometidos a distintos procesos tecnológicos, y predecir in vitro la capacidad fecundante del semen, “lo que tendría una importancia económica grande”, subrayó.

Casi setenta años después se sigue trabajando en inseminación artificial, porque la eficacia de la congelación del semen sigue siendo baja en la mayoría de especies, aunque es el método ideal de conservación, porque sobrevive la mitad de las células espermáticas y con su fisiología alterada. La mayor parte de los diluyentes empleados en la conservación seminal contienen sustancias de origen animal o vegetal químicamente indefinidos, cuyos efectos sobre la congelabilidad se ignoran, señaló.

Enfoque multidisciplinar

Otro reto al que se enfrentan estas técnicas lo constituyen las escasas posibilidades reales de predecir la fertilidad de un individuo, y está por resolver el mantenimiento del semen refrigerado vivo en algunas especies, al margen del porcino. Por otro lado, para que la preselección de espermatozoides con el fin de obtener descendencia de uno u otro género mejore su baja tasa de éxito, “debemos superar importantes limitaciones. La primera, el bajo rendimiento de los equipos de separación y, la segunda, los efectos negativos del proceso de separación sobre la capacidad fecundante de los espermatozoides separados”, indicó Garde.

Por todo ello, hay que seguir investigando en espermatología en este siglo. “Para avanzar rápido hay que olvidarse en parte del pasado. Hay que hacer un abordaje distinto, con herramientas distintas y profesionales de diversa formación. Hay que olvidar el empleo de sustancias no definidas o dentro de 50 años estaremos en una situación similar a la actual. En definitiva, hay que dar un enfoque multidisciplinar con soluciones nuevas para problemas muy antiguos”.

Hay que desarrollar nuevos diluyentes y métodos que aumenten la eficacia del sistema, y mejorar los protocolos de congelación para semen sexado, que es el que resulta más dañado en la congelación, según Garde, quien destacó que el semen de cada individuo se comporta de manera distinta, más allá de la generalidad de las especies; y eso no se puede obviar, como se ha hecho hasta ahora. Lo ideal sería identificar por qué hay ‘buenos y malos congeladores”, y desarrollar protocolos específicos. Para eso, sería bueno ver qué diferencias tienen los buenos de los malos. Todo ello para aprender y mejorar los protocolos”.

Diferencias entre buenos y malos congeladores

Se ha encontrado relación entre las dimensiones de los espermatozoides y su congelabilidad, porque congela mejor el semen de los individuos que tienen espermatozoides de menor volumen, debido a equilibrios y reequilibrios osmóticos. Y se ha identificado el ARN mensajero (ácido ribonucleico), que transfiere el código genético, en los espermatozoides, en contra de lo que se pensaba. Esta circunstancia “cambia el panorama, porque se puede hacer un abordaje distinto sobre el problema. La parte novedosa en la que estamos empezando a trabajar es emplear el ARN mensajero de dos grupos distintos, buenos y malos, para ver qué diferencias existen y dónde están”, afirmó.

Para el ponente, las líneas tradicionales de investigación no pueden responder a interrogantes históricos en espermatología, por lo que se necesita una investigación revolucionaría en este campo. La hipótesis de trabajo de Garde y su equipo es que la respuesta a las diferencias entre individuos “buenos” y “malos congeladores” podría estar en los ARNm que contienen los espermatozoides. El análisis de genómica y proteómica en espermatozoides podría revelar los mecanismos responsables de las diferencias entre aquellos que determinan la supervivencia a la congelación, además de identificar diferencias metabólicas y funcionales entre los espermatozoides de machos con diferente fenotipo en congelabilidad espermática. La capacidad para sobrevivir a la congelación puede residir en la célula, en el plasma seminal o en ambos. “Identificar estos mecanismos podría ayudarnos a mejorar la eficacia de los protocolos de congelación seminal”

Arreglar la crisis europea requiere resolver el problema de representación en cada estado miembro

La crisis de la integración europea tiene remedio, “pero hay que empezar por donde esta el problema, que es en cada uno de los estados. Que la gente cambie de manera de pensar no es cosa de un día , pero, desde luego, hace falta eliminar los estorbos (…) que en los últimos años vienen haciendo que el discurso político, por su falta de realismo, su vaciedad y su previsibilidad, nos suene a los ciudadanos cada vez más hueco”, afirmó Antonio Jiménez-Blanco Carrillo de Albornoz, en su discurso de toma de posesión como Académico de Número de la Sección de Derecho de la Real Academia de Doctores de España (RADE), con la medalla número 103.

Se oye con frecuencia que Europa está en crisis por el Brexit, “pues bien, soy de los que piensan que no estamos ante la causa de la crisis, sino ante un mero síntoma de ella”, afirmó el nuevo Académico en su discurso la crisis de la integración europea: ¿Tiene remedio? Lejos de alardear de “optimismo insensato, sino justo lo contrario”, el recipiendario argumentó que esta crisis es muy profunda, porque recoge y amplifica todos los rasgos de la crisis general de nuestro tiempo globalizado, que no es solo económica. Entre el norte de protestantes y acreedores y el sur de católicos y deudores existe un profundo divorcio de mentalidades que se reproduce en cada una de las opiniones públicas de los países miembros, “como se nos muestra en cada ocasión electoral”, agregó Jiménez-Blanco.

Al profundizar en este fenómeno, dijo que el rescate de Grecia, a cambio de reformas estructurales para derogar su paternalista derecho laboral y su insostenible régimen de pensiones, ha generado una seria oposición en las sociedades de cada parte. Los del norte entienden que nunca debieron seguir alimentando a la cigarra, porque se le desincentiva a que se porte como es debido. Mientras que en el sur, mucha gente piensa que las condiciones son injustas y contraproducentes. En ambos casos surgen partidos populistas: los de derechas son antirescates, y los de izquierdas, antirecortes. Se pone de relieve así, “que, entre unos y otros socios de un mismo mercado y de una moneda única, las mentalidades mayoritarias, que es lo más importante, no solo no convergen sino que se van separando cada vez más”, añadió.

El otro asunto que ha puesto a prueba la integración en los últimos tiempos ha sido la avalancha de refugiados sirios, cuestión en la que los países del occidente europeo se han mostrado muy distintos a los del oriente e, incluso, ha fragmentado la propia Alemania, con una abierta rebelión contra su gobierno por haberse mostrado generoso en demasía. En este caso, el populismo de derecha ha cambiado la bandera del no a los rescates por el no a los refugiados; mientras que los gobiernos del este de Europa, o más bien del centro, se han alineado con ese planteamiento, “no sin coste para los valores de la integración y, sobre todo, la libre circulación de personas”. “Así pues, ruptura entre el norte y el sur, por una parte, y entre el este y el oeste, por otra”, destacó Jiménez-Blanco.

Un proceso con freno y marcha atrás

Esta situación acredita, según el recipiendario, que los dos pilares de nuestra coexistencia, el euro de Maastricht y la libre circulación de personas de Schengen, no responden a un consenso social mínimo. Descubrimos así, de manera amarga, que el proceso de integración europea no es una dinámica lineal, sino que tiene freno y marcha atrás.

Jiménez-Blanco recordó que la historia de la integración europea no nació en la postguerra mundial por un impulso desde abajo, sino por la necesidad de Francia y Alemania de llegar a un acuerdo sobre sus producciones de carbón y acero. Por eso, la Alta Autoridad de la CECA (Comunidad Europea del Carbón y del Acero) estaba blindada frente a los gobiernos y frente a las respectivas opiniones públicas de ambos estados. Por supuesto, “nadie se planteaba ahí dar a los respectivos electorados (…) la voz para poder, en su caso, vetar el proceso”, señaló.

Más adelante, al cambiar su constitución en 1958, Francia permitió la democracia directa o refrendataria; en 1972 se vio indispensable el impulso político y se formalizó el Consejo Europeo, que reúne a los jefes de gobierno, y en 1976 se constituyó el Parlamento Europeo. Sin estar de acuerdo en las imputaciones de déficit democrático de Bruselas, Jiménez-Blanco consideró cierto que “la supranacionalidad, sin haber nacido como algo enfrentado a unas opiniones públicas domésticas de las que nada bueno cabía esperar, sí vino al mundo al margen de ellas”.

Sociedades fragmentadas internamente

El presupuesto implícito de este proceso era doble. Por un lado, que cada sociedad gozaba de unos mínimos de homogeneidad, lo que daba un respaldo suficiente a cada gobernante cuando fuera a Bruselas discutir. Y, por otro, que las mentalidades de aquí y de allá irían acercándose a lo largo del tiempo. Pero, cierto es que no ha sido así, pese a la globalización, y “lo que se ha fragmentado en cada una de las sociedades es su interior”; de forma que, quizá por el efecto combinado de la crisis económica y el espectacular desarrollo tecnológico, esas líneas de división son hoy importantísimas al formar las maneras de pensar de cada quien y, por supuesto, de expresarse electoralmente, en opinión de Jiménez-Blanco.

La toma de decisiones en Europa descansa, en último término, sobre los gobiernos nacionales; “pero si a estos les falta pie, todo el sistema hace aguas”, prosiguió. El Consejo Europeo ha celebrado reuniones sin cuento en los últimos años, “pero la crisis de confianza en sí mismos que muestran los asistentes (temerosos de cómo ‘vender’, al volver cada uno a su pueblucho, tal o cual medida que con toda probabilidad está en frontal entredicho de lo que tuvo la osadía de prometer, confiando en que a los electores les suele fallar la memoria, en tal o cual mitin) hace que, aún estando acuciados por las circunstancias, se sientan atenazados a la hora de intentar resolver problema alguno”. Todo ello causa una crisis de representación en los estados nacionales, porque “las instituciones europeas no son estancas con respecto a las nacionales. Si estas flaquean, salpican enseguida a aquellas”, subrayó.

Para Jiménez-Blanco, puesta en cuestión la moneda única, y lo que subyace a ella, el control del déficit público y la fiabilidad de la cuentas, y la libre circulación de personas, parece haber poco a salvo, menos el llamado mercado interior de bienes y servicios. Así las cosas, el problema abordado resulta indisociable de las crisis “que viven domésticamente los estados , donde, pese a la globalización y a la uniformidad tecnológica, o quizá precisamente por ello, las correspondientes sociedades se muestran cada vez más divididas (y más desconfiadas: vuelvo a la misma palabra) y, por tanto, resultan más difíciles de representar”. “Dicho de otra manera y tratando de responder a la pregunta del título, si la integración europea tiene remedio. Estoy convencido de que sí. Pero hay que empezar por donde está el problema, que es en cada uno de los estados. Que la gente cambie de manera de pensar no es cosa de un día, pero, desde luego, hace falta eliminar los estorbos”, reiteró.

Estudioso del federalismo y el regionalismo

Granadino de nacimiento, Jiménez-Blanco se licenció en Derecho en 1979. Tras ganar la plaza de letrado de las Cortes, marchó a la Universidad de Munich con una beca de la Fundación Juan March, para ampliar estudios sobre federalismos y regionalismos comparados. Se doctoró en Derecho, en 1984, en la Complutense, con la tesis Las relaciones de funcionamiento entre el poder central y los entes territoriales. En 1989 obtuvo la cátedra de Derecho Administrativo de la Universidad de Granada y, en 2009, la de la Politécnica de Madrid, dijo Fernando Bécker Zuazua, de la Sección de Ciencias Políticas y de la Economía, al contestar al recipiendario.

Desde su estancia en Alemania ha sido pieza clave en la interlocución entre ambas comunidades académicas, por lo que ha recibido la Cruz de Honor de la República Federal, en 2001, y preside el círculo de diálogo hispano-alemán de la cátedra de Derecho Constitucional de la Universidad de Colonia, lo que le ha valido el Premio Robert Schumann, por su contribución a la construcción europea.

Tres son sus líneas de investigación principales: el ámbito de las autonomías territoriales y el régimen local, la integración europea y la regulación económica en finanzas y energía, temas sobre los que ha elaborado numerosos informes y dictámenes a escala nacional e internacional. Considerado uno de los mejores administrativistas de España, ha publicado 53 artículos en revistas especializadas, y 49 colaboraciones en obras colectivas, además de una docena de libros.

En su respuesta, Bécker destacó que la irrupción de opciones políticas populistas radicales en los parlamentos nacionales y regionales resulta preocupante, no solo porque el populismo como tal carece de ideología definida, sino porque sus propuestas se alejan del objetivo europeo, y varían entre salir del euro, abolir Schengen, abandonar la UE, aumentar los impuestos a las grandes empresas, nacionalizar sectores económicos o incumplir las obligaciones de la deuda. Y todas ellas, con un elemento común: el factor identitario disgregador. Por ello, indicó, se hace necesaria la búsqueda de liderazgos potentes, sustentados en el más puro sentido orteguiano de la política, “en hacer pedagogía”.

Urge, según Bécker, reforzar las instituciones comunitarias y completar la inacabada arquitectura institucional europea, porque “después del triunfo del Brexit no hay tiempo para las dilaciones”. Sugirió unificar los mercados de bienes y servicios pendientes, como los de energía y capitales, o liberalizar los servicios profesionales. La necesidad de una política de seguridad y defensa común resulta perentoria, añadió, por no citar una mejor y mayor coordinación de las políticas fiscales, la unión de los organismos reguladores, la necesidad de una autoridad financiera única y una larga serie de iniciativas pendientes durante muchos años.

 

Villar Mir reclama un papel activo del sector público para favorecer la innovación

Un papel activo del sector público para favorecer la innovación, incrementar el gasto privado en investigación por encima del público, desarrollar un marco normativo favorable a la inversión en I+D+i y a la gestión de los derechos de propiedad intelectual, mejorar el sistema educativo y la relación universidad empresa, reforzar las políticas de fomento de la creación de empresas innovadoras y potenciar la compra pública de innovación son algunas de las propuestas expresadas por Juan Miguel Villar Mir, Presidente del Grupo Villar Mir, exVicepresidente del Gobierno para Asuntos Económicos y exMinistro de Hacienda y Académico de Honor de la Real Academia de Doctores de España (RADE), en su conferencia Innovación  y  bienestar, pronunciada en esta corporación.  

En el acto, que estuvo presidido por el titular de la RADE, Jesús Álvarez Fernández-Represa, acompañado del Presidente de la Sección de Ingeniería, José María Martínez-Val Peñalosa, el conferenciante advirtió que, al pretender niveles crecientes de bienestar material, debemos reconocer que ninguna familia, empresa y país puede consumir a largo plazo productos con más valor de los que produce. En consecuencia, a largo plazo, producción y consumo son dos caras de una misma moneda; por lo que niveles crecientes de bienestar, de consumo per cápita, solo son posibles con niveles también crecientes de producción per cápita, es decir de productividad, lo que solo es posible con personas y con empresas más eficaces. Esto se alcanza, dijo, gracias a las tres grandes palancas del bienestar: la educación, la innovación y las infraestructuras, que han posibilitado que el PIB per cápita medio en el conjunto del mundo se haya doblado en los últimos treinta años, y que probablemente vaya a doblarse de nuevo, en los próximos veinte.

La inversión en actividades de I+D, tanto pública como privada, solo es útil cuando da lugar a innovaciones en las empresas, continuó Villar Mir, “pues solo en esa fase se producen aumentos de valores añadidos, que son los integrantes de la renta nacional y de las rentas per cápita”; “mientras que ‘investigar por investigar’, sin orientación para mejorar un proceso o producto concreto, conduce generalmente a gastos inútiles para la mejora del bienestar”.

Por un mayor gasto privado en I+D+i

Tras resaltar las diferencias de gasto en I+D+i entre España, la UE y la OCDE, así como que en nuestro país es mayor el gasto público que el privado en este ámbito al contrario de lo que sucede en otras naciones, afirmó que España debe asumir el objetivo marcado por la UE para que dos tercios del gasto en I+D sea aportado por las empresas y solo el tercio restante por la Administración, además de que, en 2020, los miembros de la Unión inviertan un 3 por ciento de su PIB en I+D, del que un 1 por ciento sería de financiación pública y un 2 de inversión privada. “Con ello, se crearían en torno a 3,7 millones de puestos de trabajo y se aumentaría el PIB anual de la UE en cerca de 800.000 millones de euros”. Cumplir estos objetivos exigiría a España un crecimiento constante de un 16 por ciento anual en el sexenio 2015-2020, con un esfuerzo esencial del sector privado, que debería multiplicarse casi por tres para alcanzar un crecimiento medio acumulativo anual de un 23 por ciento; mientras el gasto público sería de un 12 por ciento.

Antes de la última crisis, el gasto español en I+D crecía por primera vez a tasas superiores a las de Alemania, Francia, Italia y Reino Unido: un 1,35 por ciento del PIB en 2008, a solo 0,45 puntos de la UE 28. Pero, a partir de ese año los recortes en el gasto público y la inversión privada han vuelto a ensanchar la brecha, que en 2014 volvía a 0,72 puntos, la mayor diferencia desde 2002.

Para recuperar la senda perdida, apuntó Villar Mir, será necesario poner en marcha medidas que creen un entorno favorecedor de la innovación y solucionar deficiencias estructurales importantes, entre las que se encuentran, según la Fundación Cotec, la baja participación de los agentes financieros en la financiación de la innovación o los malos resultados de nuestro sistema educativo. Destacó el impacto negativo que, para el sistema de innovación, suponen los bajos niveles de rendimiento de los alumnos españoles de primaria y secundaria en las competencias básicas, así como las altas tasas de abandono educativo temprano. El desajuste entre la oferta del sistema educativo y la demanda del sistema productivo es, además, un lastre adicional para avanzar hacia la economía del conocimiento, y se manifiesta en la baja tasa de empleo de los recién graduados y en la elevada tasa de sobrecualificación de los titulados en educación superior que consiguen empleo.

Fomentar la compra pública innovadora

El sector público debe jugar un papel activo para favorecer la innovación, fomentando la compra pública innovadora, regulando los mercados de forma eficiente, potenciando el desarrollo tecnológico, e, incluso, participando en la creación de nuevos mercados, señaló. En este contexto, el ponente se mostró partidario de que se pongan en marcha las medidas necesarias para subsanar dificultades y aportar el necesario y renovado impulso a la investigación y la innovación en la contratación pública en España, a través de esa importante herramienta de fomento de la I+D+i, como es la compra pública de innovación, que en los últimos años ha sufrido un importante retroceso en las cantidades empleadas.

Para el doctor Villar Mir, “las administraciones deben ser, junto a las empresas, protagonistas de la innovación y actuar al menos en tres diferentes ámbitos: deben apostar por la ciencia como medio para resolver los grandes retos a los que se enfrenta la sociedad; se debe reforzar la apuesta por una Administración innovadora, capaz de generar sinergias con el sector privado, y es preciso crear un entorno favorable para los emprendedores y para las empresas innovadoras”.

Resulta imprescindible, añadió, “entender la I+D+i con una visión de Estado, a largo plazo y más allá de los ciclos políticos, con sus propios organismos de gobierno y reglas de funcionamiento, con independencia en la gestión y estabilidad en los programas. España necesita incrementar la relevancia de la investigación científica y técnica, creando un marco flexible y eficiente para el desarrollo de la ciencia y la innovación, sin trabas administrativas y regulatorias; potenciar la aparición de nuevas fuentes de financiación, y mejorar la inserción laboral y la movilidad del capital humano, del talento, para que genere conocimiento y se transfiera al tejido productivo. En este aspecto, abogó el conferenciante, entre otras medidas, porque se desarrolle un marco normativo favorable a la inversión en I+D+i y a la gestión de los derechos de propiedad intelectual para garantizar el retorno de esa inversión.

La Encuesta sobre Innovación en las Empresas, prosiguió, desvela que un 28,5 por ciento de las empresas españolas de diez o más asalariados fueron innovadoras en el periodo 2013-15; un registro que nos hace retroceder hasta 2005, cuando se alcanzó un gasto de 13.636 millones de euros, lejos de los casi 20.000 millones de 2008, cuando se logró el mayor gasto en innovación de los últimos diez años. Una peculiaridad española es que un elevado porcentaje de la I+D empresarial la ejecutan pymes. En 2008, empresas de menos de 250 empleados hicieron el 54,4 por ciento del gasto cuando, en nuestro entorno europeo, son las empresas de mayor tamaño las responsables de la mayor parte del gasto. Por eso, dijo, es preciso reforzar las políticas de fomento de la creación de empresas innovadoras y diseñar una estrategia para acelerar el crecimiento e internacionalización de las empresas de alto potencial, para reducir la elevada atomización de los sectores de media y alta tecnología.

Universidad y empresa, piezas de un mismo engranaje

Al abordar la necesaria potenciación del sistema educativo, Villar Mir indicó que universidad y empresa debieran ser dos piezas de un mismo engranaje y no desarrollarse de espaldas a la otra. “El mundo empresarial y el mundo académico deben unir sus esfuerzos para lograr un modelo productivo sustentado en la innovación. Su completa sintonía es imprescindible para ejercer el papel que les corresponde en la sociedad del conocimiento y de la información”, aseveró. Mejorar nuestro sistema universitario, continuó, requiere introducir, en sus aspectos no académicos, numerosas prácticas propias de la gestión empresarial. La planificación de objetivos, la gestión, la captación y la retención de talentos, el fomento de la competitividad interna y externa, la dirección estratégica activa o los análisis de eficacia son algunas de las tareas pendientes. De acuerdo con el “Informe del Consejo Económico y Social 1/2009: Sistema educativo y capital humano”, se necesita una reforma curricular de la educación universitaria basada en la flexibilidad y la transversalidad, como mecanismo para afrontar los retos de un mundo globalizado y en constante transformación.

El último apartado de su intervención lo dedicó el Académico de Honor de la RADE a reflejar la intensa y permanente actividad que el Grupo Villar, sobre la base del principio de no comprar tecnología ajena, sino venderla a otros, dedica a I+D+i, en colaboración con universidades y centros de investigación y, en algunos casos, con financiación de la UE. Cerca de 500 proyectos, de los que han salido alrededor de 40 patentes, han llevado a cabo las empresas del grupo: Ferroglobe (66 proyectos), Fertiberia (115), OHL (300), e Inmobiliaria Espacio, con dos grandes proyectos de infraestructuras subterráneas conectadas con los edificios para resolver previsibles impactos en el tráfico por los cambios de usos urbanísticos en Madrid: Torrespacio y Canalejas. En relación con este último proyecto, el conferenciante resaltó que después de largo tiempo de conversaciones con anteriores equipos municipales para conseguir la licencia correspondiente, la Alcaldesa Manuela Carmena tardó solo tres meses en concedérsela.

Para terminar, Villar Mir expresó su conclusión fundamental: “que el empeño de todos y cada uno de nosotros en un permanente esfuerzo de trabajo y superación, con honestidad, con humildad y con austeridad, se traduzca en aumentos de productividad y de empleo y, por tanto, en un creciente bienestar. Siempre, esforzándonos en la función más noble que podemos hacer, que es la de dedicar nuestro trabajo a ser útiles a la sociedad, tratando de servir y de hacer felices a los demás; y de hacerlo aportando conocimientos”.

La meteorología tiene a su alcance adelantar la predicción del tiempo hasta diez días

Adelantar la predicción del tiempo hasta diez días, o predecir cambios climáticos cuatro semanas antes y anomalías a escala global con hasta un año de antelación son algunas de las mejoras al alcance de la investigación meteorológica si amplia su capacidad científica, tanto observacional como computacional, en el futuro inmediato, afirmó Francisco Valero Rodríguez, al tomar posesión de su plaza de Académico Correspondiente de la Sección de Ciencias Experimentales, de la Real Academia de Doctores de España (RADE), en un acto presidido por el titular de la corporación, Jesús Álvarez Fernández-Represa, acompañado por el Presidente de la citada sección, José María Teijón Rivera, y por el miembro de la misma Arturo Romero Salvador, que presentó al recipiendario.

Estudiar físico-matemáticamente un fluido dentro de un tubo o cámara es razonablemente abordable. La complejidad aumenta si se trata de gas. Pero, si ese gas es el aire de la atmósfera terrestre, de 40 kilómetros de espesor, gira con una esfera irregular de 12.800 kilómetros de diámetro a 1.600 kilómetros por hora, lo componen gases muy variados y reactivos y lo calienta un enorme reactor nuclear situado a millones de kilómetros, el sistema es de imposible control directo e inabordable tratamiento matemático. “Hemos de recurrir a su modelización numérica, nuestro laboratorio virtual, con un conjunto de algoritmos enorme para determinar su estado, comportamiento y evolución, lo que constituye un gran desafío, siempre en las fronteras del conocimiento”, añadió Valero.

Saber qué tiempo va a hacer siempre ha sido de gran interés, no solo con carácter general, sino particularmente en el de la I+D+i científica. Recorrió Valero la historia de la meteorología desde sus inicios. El término proviene del título de Meteorológica, escrito hacia el 340 antes de Cristo por Aristóteles, que especula sobre el origen de los fenómenos atmosféricos y celestes y estuvo vigente hasta casi el siglo XVII, cuando se sentaron las bases de la ciencia moderna. Se descubrió que el aire tenía masa y peso y aparecieron instrumentos para medirlos: el termómetro de Galileo (1607), el barómetro de Torricelli (1643), o el anemómetro de Hooke (1667); así como las contribuciones de Pascal (1648) sobre las variaciones de la presión con la altitud, de Boyle y Mariotte (1662) sobre la ecuación de los gases para determinar el estado de la atmósfera y su compresibilidad, y de Descartes, con su Discurso del método (1637), que rompe con la tradición escolástica y estimula la generación de ideas y conceptos sobre fenómenos atmosféricos, como la teoría de Halley (1686) sobre el origen de los vientos alisios y monzones por convección térmica, que plasma en el primer modelo de circulación atmosférica en la franja intertropical.

En 1687, Newton publicó sus Principia, con las leyes del movimiento y de la gravedad, trascendentes para la meteorología. En los albores del XVIII, Hadley propuso el mecanismo de autosostenimiento de los alisios, determinante para la circulación general de la atmósfera. D’Alembert y Euler sentaron las bases de la hidrodinámica. Incluso Kant, con su teoría de los vientos (1756), o Dalton, fundador de la teoría atómica moderna, que recuperó la olvidada teoría de Hadley, abordaron este campo.

En la primera mitad del XIX dominó la climatología y nació la cartografía sinóptica, que permitía comparar observaciones meteorológicas hechas en una amplia zona; pero solo servía como instrumento para la investigación, sin utilidad para informar de la evolución del tiempo. El telégrafo de Morse (1840) fue un hito en la meteorología, que avanzó con la teoría térmica de los ciclones y la meteorología sinóptica, que permite relacionar la presión y el campo de vientos en superficie. A finales del siglo, los pronósticos basados en mapas sinópticos se consideraban lo más exacto para predecir el tiempo, pero con graves limitaciones debido al retraso de la física atmosférica respecto a otras ramas de esta ciencia.

De disciplina teórica a científica

En 1850, continuó, nació la moderna meteorología teórica. Las ecuaciones de la hidrodinámica permitieron incorporar la física newtoniana en forma de ecuaciones diferenciales en derivadas parciales a la atmósfera. Faltaba la información termodinámica, derivada del primer principio que no se formuló hasta entrado el XIX, que permitió la formulación integral de las ecuaciones y convirtió la meteorología en disciplina científica. Ferrel introdujo (1878) el concepto de viento térmico, que agregaba una nueva dimensión espacial e incorporaba una estructura en tres dimensiones a la atmósfera. Hermann von Helmholtz encauzó (1858) el estudio de la vorticidad, que introducía el concepto de temperatura potencial y un modelo de circulación atmosférica sin intercambios turbulentos.

En el tránsito al XX surgió un científico excepcional, el noruego Vilhelm Bjerknes, que trasladó a la meteorología sus conocimientos en física teórica y, especialmente, en dinámica de fluidos, base de su teorema de circulación atmosférica, que forja el concepto de circulación positiva para la ciclónica y negativa para la anticiclónica. Su teorema consagra la integración de la meteorología en la física, por lo que se le reconoce como padre de la meteorología moderna. En 1904, planteó la predicción del tiempo como un problema matemático de valores iniciales partiendo de la observación tridimensional de la atmósfera, que sería la aproximación precursora de la predicción numérica posterior.

En los 30, utilizando radiosondas transportados por globos capaces de transmitir las medidas de presión, temperatura y humedad, se crearon redes de estaciones de observación meteorológica de capas superiores del aire, y se confeccionaron mapas de los niveles superiores del hemisferio norte. Rossby (1941) introdujo su teoría del efecto centrífugo de la rotación terrestre sobre los movimientos relativos, que condujo a un modelo de circulación general del aire basado en tres células convectivas dispuestas meridionalmente para cada hemisferio, que se acepta como una descripción cualitativa de la circulación atmosférica.

En los albores del XX, Lewis F. Richardson, fue el primero en afrontar la orientación de Bjerknes para la predicción numérica con observaciones físicas, una aportación adelantada a su tiempo que, aunque inaplicable por cálculos manuales y sin datos experimentales, sentó las bases de la actual predicción numérica. Desde Richardson el interés por este tipo de predicción fue decayendo, hasta que en los años 50 se expandieron las observaciones meteorológicas y se desarrollaron los computadores. El primero fue el ENIAC (Electronic Numerical Integrator and Computer), en 1946, capaz de resolver la tediosa integración matemática para predecir el tiempo. Más adelante, John von Neumann y un grupo de meteorólogos consiguieron un ENIAC mejorado que produjo el primer pronóstico del tiempo por medio de técnicas de predicción numérica. A partir de 1960, con ordenadores IBM 360 se lograron predicciones operativas en tres niveles de la atmósfera, a la vez que crecía la capacidad observacional. En 1961 surgieron los primeros satélites meteorológicos (Tiros I) y geoestacionario (ATS I), que abrían mejoras inimaginables. A partir de 1970, con los procesadores vectoriales de notoria potencia, la atención se volvió a las ecuaciones primitivas y se hizo realidad el sueño de Richardson. Se crearon redes de radares meteorológicos y la meteorología entró en una senda de enorme perfeccionamiento. Paralelamente, se íban resolviendo los problemas de falibilidad de los datos y de diseño de esquemas de integración de los modelos de ecuaciones primitivas.

El comportamiento caótico del clima

Uno de los primeros en comprender que la mecánica clásica encerraba la semilla de lo impredecible fue Edward Lorentz, creador, en 1963, de la Teoría del Caos mientras trabaja en predicción numérica del tiempo. La evolución del clima, gobernada por ecuaciones no lineales, tiene un comportamiento caótico, aunque sus leyes son plenamente deterministas, porque una diminuta modificación de los datos iniciales lleva a resultados diferentes. Cambió así el modelo epistemológico en el que el azar y lo no predecible juegan un papel fundamental. En esa línea de conocimiento se desarrollaron los sistemas de predicción por conjuntos, que aportan una serie de pronósticos equivalentes a las posibles perturbaciones del estado atmosférico inicial, y requieren una enorme capacidad computacional.

A pesar de las continuas mejoras de las predicciones meteorológicas realizadas con los modelos numéricos, hay que rendirse a la evidencia de la imposibilidad de hacer predicciones precisas más allá de un cierto límite, que viene determinado por: las imperfecciones de los modelos numéricos que simulan la atmósfera, ligadas a la computabilidad; las incertidumbres inherentes a las medidas efectuadas para determinar el estado inicial de la atmósfera, y el carácter no lineal intrínseco del modelo. Si se extrapolan las tendencias actuales, prosiguió Valero, se ve que los modelos numéricos globales han ido aumentando su tasa de alta resolución (16 kilómetros) de forma exponencial durante decenios y su capacidad predictiva a un ritmo constante de un día cada diez años.

“Aunque resulta aventurado extrapolar ambas tendencias hasta 2030, si lo hiciéramos, nos llevarían a una reducción del tamaño de malla horizontal de hasta un kilómetro, y un aumento de capacidad predictiva adicional de dos días, respectivamente”, precisó. La investigación meteorológica se encuentra en las fronteras del conocimiento, indicó Valero, y su evolución pasa por adoptar la aproximación integrada del sistema terrestre hacia un sistema de predicción numérica ambiental de formidable complejidad científica, en la que juega un papel esencial la estrategia de alineación de los nuevos sistemas de predicción numérica metereológica a un modelo terrestre global; así como la asimilación de datos meteorológicos. Con ello, la capacidad predictiva “mejorará, sin duda, permitiendo avances realmente notables, no solo en el medio plazo, hasta díez días de adelanto, sino en las escalas mensual y estacional. Y, no solo esto; si conseguimos desarrollar una aproximación sólida, conseguiremos también predecir patrones a gran escala, y, lo que es más difícil, transiciones de regímenes del tiempo o climáticos hasta con cuatro semanas de adelanto y anomalías a escala global con hasta un año de antelación, y de la meteorología de otros planetas”, señaló.

Para Valero, ese futuro exige avanzar en el conocimiento científico y en las capacidades observacional y computacional, ya que la supercomputación es la responsable de hacer andar los modelos numéricos, con un laboratorio de simulación y de previsión. “La capacidad científica observacional y la computacional son los mejores aliados para construir mejores modelos predictivos y constituyen complementos ineludibles para explicar los fenónemos meteorológicos; y su perfeccionamiento contribuirá a una ciencia meteorológica más sólida, extensa y una mayor utilidad científica y de aplicación”, concluyó.

Investigador de la atmósfera marciana

Francisco Valero se licenció en Ciencias Físicas en la Complutense, en 1975. Tras una estancia en la Universidad de California en los Ángeles, cursó la diplomatura de Óptica, y se doctoró en Ciencias Físicas en 1980. Es catedrático del Departamento de Física de la Tierra, Astronomía y Astrofísica en la Facultad de Ciencias Física de la Complutense, donde empezó como profesor ayudante, en 1975. Trabajó para introducir enseñanzas relacionadas con la meteorología en la sanidad y, especialmente, en la modelización numérica del efecto de isla térmica urbana, y ha programado y dirigido másteres y cursos sobre temas multidisciplinares relacionados con la meteorología.

Ha intervenido en más de treinta publicaciones docentes, como editor, autor o coautor. Ha dirigido veinticinco trabajos de fin de máster o de fin de grado y quince tesis doctorales. Su investigación mayoritaria se centra en la física atmosférica y climática, con más treinta proyectos competitivos. Es autor de más de setenta artículos y ha participado en ciento setenta congresos. Ha intervenido en catorce contratos de investigación con empresas y administraciones. Colabora con el Centro de Astrobiología (INTA-CSIC) en proyectos con la Agencia Europea del Espacio, la NASA y otros consorcios internacionales. Ha sido el responsable de adaptar al planeta Marte el conocimiento de la capa límite atmosférica y de la radiación atmosférica desarrollado para la Tierra, que se está aplicando en la misión marciana REMS-Curiosity.

La RADE dedicó una sesión in memoriam a José María Albareda y su papel al frente del CSIC

La Sección de Farmacia de la Real Academia de Doctores de España (RADE) organizó una sesión in memoriam bajo el título “José María Albareda (1902-1966)”, personaje controvertido que en la época del primer franquismo puso en marcha una política científica para formar las primeras generaciones de investigadores españoles con la potestad ejecutiva e incuestionable de su cargo de Secretario General del Consejo Superior de Investigaciones Científicas (CSIC), que él mismo contribuyó a diseñar. Presidió el acto el titular de la corporación, Jesús Álvarez Fernández-Represa, acompañado del Presidente de la Sección de Farmacia, Antonio Doadrio Villarejo.

No es sencillo acercarse a un personaje tan controvertido como José María Albareda Herrera, afirmó Rosa Basante Pol, Académica de Número de la Sección de Farmacia, que actuó como moderadora. La historiografía disponible se debate entre quienes ensalzan su figura por encima de los límites de lo humano, y sus detractores, que le suponen solo una herramienta del franquismo. Un debate que nace, en gran parte, de su participación en la génesis del CSIC y de los esfuerzos por potenciar la investigación científica en España que Albareda puso en práctica.

Basante insistió en la importante huella de la Junta de Ampliación de Estudios (JAE) en la formación de Albareda, al que otorgó su primera beca para proseguir estudios en Alemania y Suiza, a la que siguieron otras, la última de las cuales no pudo aprovechar por el comienzo de la guerra civil

Como catedrático de Farmacia en la Universidad de Madrid, continuó Basante, participó en los nuevos planes de estudio y se preocupó de que sus discípulos se convirtieran en futuros investigadores. Con esa idea fundamental, fomentó la creación del Club Edaphos. De él decían sus discípulos, que sabía orientar sin imponer, y así colaboró a sentar las bases para que España fuera aceptada en la comunidad científica internacional.

Factótum del CSIC

A partir de 1939, Albareda fue el Secretario General del CSIC y auténtico factótum del órgano desde el que las autoridades querían encauzar la investigación científica, en cuya gestación intervino activamente, manifestó Alfredo Baratas Díaz, profesor de Historia de la Ciencia en la Universidad Complutense.

José María Albareda nació en 1902 en Caspe (Zaragoza). Siguiendo la senda de su padre, se licenció en Farmacia, en Madrid, en 1922, y comenzó Ciencias Químicas en Zaragoza. En 1927 defendió su tesis doctoral en Farmacia. Tras su doctorado y sus dos licenciaturas, ganó una cátedra de instituto en 1928. Ese mismo año solicitó una pensión de la JAE para estudiar en el extranjero. En Suiza y Alemania se especializó en química del suelo. Su objetivo entonces fue conseguir un segundo doctorado en Químicas. En 1932 obtuvo otra beca de la JAE para continuar sus trabajos sobre las arcillas. Durante dos años amplió estudios en el Reino Unido y viajó por centros de investigación del centro de Europa, especializándose en el estudio físico-biológico de los suelos. Ya en Madrid, ocupó una cátedra en el Instituto de Bachillerato Velázquez, y se le encargó la Cátedra Conde de Cartagena en la Academia de Ciencias.

Advirtió Baratas que el encuentro con José María Escrivá de Balaguer fue fundamental para Albareda, que ingresó en el Opus Dei. Durante la guerra civil, pasó a Francia por Andorra, junto con Escrivá y un grupo de seguidores. Vuelto a España, se puso a disposición del gobierno franquista en Burgos y asumió funciones en la Dirección General de Enseñanza Media. Conoció a José Ibáñez Martín, aragonés, catedrático del Instituto San Isidro, miembro de la Asociación Católica Nacional de Propagandista y cedista, con el que compartía la preocupación por el futuro de la investigación española. Cuando Ibáñez Martín se hizo cargo del Ministerio de Educación Nacional, trató con Albareda sobre la orientación de la investigación y surgieron los primeros proyectos de la institución que tomaría el relevo de la JAE: el CSIC.

Al terminar la contienda fue Director del Instituto Ramiro de Maeztu, en Madrid, y su amigo Ibáñez Martín le encargó el borrador de una gran institución científica. Meses después nacía el CSIC y Albareda, que había diseñado también su estructura directiva, asumió el cargo de Secretario General. Entre tanto, ganó la cátedra de Mineralogía y Zoología Aplicada a la Farmacia, en la Universidad Central.

Ciencia confesional y al servicio de la patria

Como señaló Baratas, Albareda actuaba como auténtico Presidente del CSIC. Era intocable por su relación con Ibáñez Martín, y después se convirtió en insustituible. El proyecto era imponer en el mundo de la cultura las ideas esenciales que inspiraban “los gloriosos principios del Movimiento Nacional”, volver a la clásica y cristiana unidad de las ciencias, crear un contrapeso frente al brutal especialismo solitario y vincular los objetivos de la ciencia a los intereses de la patria.

Explicó el ponente los cuatro sellos característicos de la institución: la confesionalidad evidente, la capacidad ejecutiva delegada en el Secretario General, que disponía de un presupuesto relativamente alto y daba preeminencia en los gastos a los centros de carácter aplicado en detrimento de la ciencia básica, y la separación entre la universidad y el CSIC, lo que deslindaba las funciones docentes de las investigadoras, aunque había profesores universitarios que ejercían su labor científica en el consejo. Como aspecto positivo del CSIC, Baratas destacó que “se fueron creando centros específicos en provincias o secciones locales en ciudades que contaban con activas universidades, cuyos profesores estaban en el núcleo del nacimiento de estas secciones”.

En 1959 Albareda se había ordenado sacerdote y, al año siguiente, fue nombrado Rector de la Universidad de Navarra, por lo que presentó su renuncia al cargo en el CSIC, pero no se le aceptó. El trasiego entre Madrid y Pamplona debió resentir necesariamente la actividad de la institución, según Baratas. La crisis económica de los años 50 y el Plan de Estabilización que buscaba un nuevo modelo económico, obligó a rediseñar la política científica. En 1958, Manuel Lora Tamayo, futuro Ministro de Educación y Ciencia, creó la Comisión Asesora de Investigación Científica y Técnica, que suponía la revisión de la política científica. Pero Albareda continuó al frente del CSIC hasta su muerte, en 1966.

Antonio González-Bueno, Académico Correspondiente de la Sección de Ciencias Experimentales de la RADE, analizó la formación de la primera generación de científicos del primer franquismo y cómo, de la mano de Albareda, se sentaron las bases para la aceptación de España en la comunidad científica internacional. El Club Edaphos, bajo la orientación de Albareda, agrupó a brillantes alumnos de la Facultad de Farmacia de Madrid. Su génesis surge en el curso 1947-48, cuando Julio Rodríguez Villanueva y Avelino Pérez Geijo llegaron a la facultad y Albareda les invitó a incorporarse a su cátedra para investigar. Después, se incorporaron al grupo: Eugenio Laborda Rodríguez, Manuel Losada Villasante, Manuel Ruiz Amil y Gonzalo Giménez Martín. Su mentor vio en todos ellos el caldo de cultivo perfecto para su propósito. Nacía el club al abrigo de la cátedra de Geología Aplicada y con el apoyo científico y financiero del Instituto de Edafología, Ecología y Fisiología Vegetal del CSIC.

Formar investigadores que no existían

En torno al estudio del suelo, Albareda reunía así estudiantes que habrían de convertirse en especialistas en microbiología o bioquímica, que encajaban en áreas específicas del Instituto de Edafología, con fuerte proyección en los años 50, en las que no existían investigadores en España. Se reunían semanalmente presididos, salvo pocas excepciones, por Albareda, que les incitaba intervenir. Tenían el compromiso no escrito de asistir a los actos del CSIC e intervenir en los debates, así como a excursiones organizadas por el instituto de Edafología. Las actividades las financiaba el CSIC y otras entidades que buscaba Albareda, como cajas de ahorro, entre otras.

El club siguió creciendo, continuó Gonzalez-Bueno, con el ingreso de Daniel Vázquez Martínez, Claudio Fernández Heredia, Isabel García Acha, futura esposa de Rodríguez Villanueva, y de cuatro jóvenes más que también formaron matrimonio: José María Rey Arnaiz y Josefina Benayas Casares y Gonzalo Jiménez Martín y Josefina Abián Burgos.

Albareda empezó a gestionar las estancias de los edaphos en el extranjero en 1951, con becas del Instituto de Edafología y del CSIC, A medida que los estudiantes iban culminando etapas académicas, los incorporaba como becarios al instituto o promovía su estancia en otros países para ampliar estudios. La forma de trabajar de Albareda consistía en: relacionarse con profesores extranjeros conocidos, potenciar el aprendizaje de idiomas, la descentralización administrativa entre centros que dependían de él y libre disposición de los presupuestos de la Secretaría General del CSIC. Los destinos no eran casuales: siempre con profesores próximos y en áreas de especialización en las que el consejo carecía de expertos. En ocasiones, visitaba a sus discípulos en otros países para reanudar las reuniones del club, mantener la relación personal y supervisar la vocación investigadora de sus alumnos. De esa forma, todos compartían el mismo entusiasmo para trabajar en proyectos comunes y formar una red de trabajo en España, añadió González-Bueno.

Mientras continuaban su formación, algunos miembros de la primera generación del club colaboraron en la selección de nuevos miembros para el grupo. A medida que avanzaban en su preparación, los alumnos fundadores del club se iban presentando a oposiciones e iban ganando plazas en distintos centros del CSIC. Albareda había conseguido sentar las bases de un primer grupo de investigadores con publicaciones internacionales reconocidas y trabajos entrelazados. Prosiguió alimentando el grupo en años posteriores, con nuevas incorporaciones y el apoyo económico e institucional del CSIC, aunque las actividades las dirigían ya los miembros mayores del club, en especial Pérez Geijo, y entre los profesores invitados figuraban Rodríguez Villanueva, Isabel García Acha o Manuel Losada, convertidos en expertos en sus áreas del saber.

La ciencia confirma las raíces celtas de las literaturas castellana y vasca, según el profesor Martín Almagro Gorbea

· “Gran parte de lo que se considera literatura vasca, pues se atribuye sin más a la tradición euscalduna, forma parte de la literatura de la Hispania Celtica”, afirmó el profesor Almagro Gorbea, al ingresar en la Real Academia de Doctores de España
· Relatos histórico-míticos sobre el origen de los señores de Vizcaya confirman el profundo carácter celta del País Vasco, que conservó hasta la Alta Edad Media la tradición épico-histórica hispano-celta
· “La religión y los mitos atribuidos a los vascones no se han diferenciado de los pertenecientes a los pueblos celtas que habitaban el territorio vasco en la antigüedad, y la misma confusión se observa en las creaciones literarias”
· El conjunto de narraciones histórico-míticas celto-vascas constituyen, “una importante aportación para conocer los verdaderos orígenes de la literatura vasca al margen de los tópicos preestablecidos y, en un sentido más general, ilumina los complejos orígenes de la literatura castellana”, concluyó Almagro Gorbea.

MADRID (07-02-2017).- El estudio interdisciplinar que aportan diversas ciencias al campo arqueológico confirma las raíces celtas de la literatura castellana popular y de la vasca, a la que se atribuye tradición euscalduna por prejuicios ideológicos, aseguró el profesor Martín Almagro Gorbea al ingresar como miembro de número en la Real Academia de Doctores de España (RADE), con la medalla número 32, de la Sección de Humanidades, con su discurso Las raíces celtas de la literatura castellana.

Catedrático, arqueólogo, historiador y académico de número también de la Real de la Historia, Almagro Gorbea ha estudiado los últimos milenios antes de Cristo de la antigua Hispania, cuando se forman los pueblos tartesios, iberos, celtas y vascos que, a través de la romanización y la islamización, constituyen las raíces etnoculturales y demográficas de España. Los datos que ofrece la arqueología se enriquecen, manifestó, con la necesaria interdisciplinariedad de otras ciencias: historia y geografía de la antigüedad, epigrafía y numismática, lingüística, antropología, historia de las religiones, etnoarqueología y literatura, a las que se añaden antropología física y biología, demografía y técnicas de análisis arqueométricos de las ciencias físicas y naturales.

Los celtas, dijo, eran un pueblo de estirpe indoeuropea que formaban la base étnica y cultural de todo el occidente de Europa, incluida gran parte de la Península Ibérica, donde, desde el tercer milenio antes de Cristo, existían poblaciones protoceltas muy arcaicas extendidas entre las regiones occidentales atlánticas hasta la meseta y el Sistema Ibérico, así como desde Galicia a todo el País Vasco, un área que constituía la llamada Hispania Celtica. Su literatura, de transmisión oral, estuvo presente en Irlanda, Escocia, Gales y Bretaña y extendió por Europa sus relatos mítico-históricos, con leyendas como Tristán e Isolda, El Rey Arturo y los Caballeros de la Tabla Redonda y El Santo Grial. “Su influencia es evidente en libros de caballerías que inspiraron la obra máxima de nuestra literatura, Don Quijote de la Mancha, cuyas remotas raíces celtas tantas veces pasan desapercibidas”.

Liras representadas en las estelas de guerrero aparecidas en Extremadura y en Luna (Zaragoza), textos celtibéricos en bronce, la evidente continuidad de tradiciones y costumbres conservadas hasta los siglos IX y X por poblaciones celtas desde Burgos y Soria al norte de Guadalajara, autores latinos que hablan de cánticos épicos guerreros de lusitanos, cántabros o galaicos en sus lenguas bárbaras y escenas iconográficas, testimonian la existencia generalizada en la Hispania Celtica de poemas épicos con episodios de combates de campeones, entre otros temas, y seres fabulosos comparables a los poemas galos e irlandeses.

Profundo carácter celta del País Vasco

Diversos relatos histórico-míticos sobre el origen de los señores de Vizcaya confirman el profundo carácter celta del País Vasco, que conservó hasta la Alta Edad Media la tradición épico-histórica hispano-celta, como evidencian los protagonistas, la trama y numerosos detalles, explicó el nuevo académico de la RADE. Del personaje heroico histórico-mítico, fundador de una dinastía y de un pequeño estado existen varias versiones, como Froom, Juan Zuria o Diego López, Señor de Vizcaya, quienes, en su época, serían considerados como un rikx o rey celta, pues se asocian a ritos de entronización real relacionados con el Árbol de Guernica, característicos de la ideología y la religión celtas. Y el mismo esquema de tradición épico-mítica ofrece Sancho Abarca en Navarra, origen de la dinastía del mismo nombre. Estas narraciones sobre el origen del Señoría de Vizcaya y de Navarra deben considerarse celto-vascas por su origen y temática, y deben asociarse a las conservadas en los más antiguos cantares de gesta castellanos, pertenecientes a este mismo periodo y con protagonistas y argumentos muy parecidos, como el Cantar de Fernán González, el Cantar de los Siete Infantes de Salas, la Gesta de las Mocedades de Rodrigo y diversos episodios del Cantar de Mío Cid.

La literatura del País Vasco, según el conferenciante, “afronta la dificultad de que la religión y los mitos atribuidos a los vascones no se han diferenciado de los pertenecientes a los pueblos celtas que habitaban el territorio vasco en la antigüedad, y la misma confusión se observa en las creaciones literarias”. El País Vasco, poblado por várdulos, carisios y autrigones, formaba parte de la Hispania Celtica, mientras que los vascones, precedentes de los actuales euscaldunes, habitaban las áreas pirenaicas de Navarra hasta el Pirineo Central y buena parte de la Aquitania. Por ello, prosiguió, “gran parte de lo que se considera literatura vasca, pues se atribuye sin más a la tradición euscalduna, forma parte de la literatura de la Hispania Celtica, hecho acorde con el carácter celta de las poblaciones del País Vasco en la antigüedad”.

Prejuicios ideológicos

Esta confusión ha dificultado la correcta interpretación de las narraciones conocidas, “al considerarse todas de origen euscaldún por prejuicios ideológicos, frente a los datos objetivos que ofrece su análisis. En esta literatura celto-vasca aparecen númenes y dioses antropomorfos, gigantes y animales característicos de la religión celta, el caballo, el toro, el jabalí, el carnero, la cabra, el perro, la serpiente, el buitre, etc., además de monstruos míticos, como el dragón. También son celtas los gentiles y moros y las lamiak o lamias, seres femeninos con cuerpo de mujer y extremidades inferiores de pez como las sirenas que habitaban las fuentes, ríos y cuevas”.

El conjunto de estas narraciones histórico-míticas celto-vascas constituyen, “una importante aportación para conocer los verdaderos orígenes de la literatura vasca al margen de los tópicos preestablecidos y, en un sentido más general, ilumina los complejos orígenes de la literatura castellana, entre los que hay que incluir estos precedentes celtas que hasta ahora habían pasado desapercibidos”, concluyó Almagro Gorbea, quien propugnó que se continúe el estudio crítico de estas creaciones literarias, tanto de sus fuentes y su evolución como de sus temas relacionados con las creencias animistas de la rica y abundante mitología de la Hispania Celtica.

Almagro Gorbea ha sido Director del Museo Arqueológico de Ibiza, Conservador del Museo Arqueológico Nacional, Director de la Escuela Española de Historia y Arqueología de Roma y, en 1998, Director del Museo Arqueológico Nacional. Ha sido profesor adjunto del Departamento de Prehistoria de la Complutense, catedrático de Prehistoria y Arqueología de la Universidad de Valencia y, desde 1981, catedrático de la Complutense, donde dirigió el Departamento de Prehistoria. En ella fundó la revista Complutum y dirigió 39 tesis doctorales, entre otros trabajos académicos. En 1995 fue elegido Académico de Número de la Real Academia de la Historia, donde Anticuario Perpetuo. Ha desarrollado numerosas investigaciones de campo en España, Italia, Irlanda, Córcega, Alemania, Nubia y Francia, y destacados proyectos del Patrimonio Cultural, y ha intervenido en grandes exposiciones nacionales e internacionales. Autor de 20 libros, 351 artículos y colaborador de 188 obras colectivas, es miembro de diferentes asociaciones e instituciones académicas extranjeras y nacionales, entre otras, de la Real Sociedad Bascongada de Amigos del País.

Jiménez-Blanco: Arreglar la crisis europea pasa por resolver el problema de representación en cada estado miembro

· Existe un profundo divorcio de mentalidades entre las sociedades de cada país de la UE, dijo el eminente administrativista al ingresar en la Real Academia de Doctores de España
· “Entre unos y otros socios de un mismo mercado y de una moneda única, las mentalidades mayoritarias, que es lo más importante, no solo no convergen sino que se van separando cada vez más”
· Los dos pilares de nuestra coexistencia, el euro de Maastricht y la libre circulación de personas de Schengen, no responden a un consenso social mínimo, según el nuevo académico

MADRID (14-02-17).- La crisis de la integración europea tiene remedio, “pero hay que empezar por donde esta el problema, que es en cada uno de los estados. Que la gente cambie de manera de pensar no es cosa de un día , pero, desde luego, hace falta eliminar los estorbos (…) que en los últimos años vienen haciendo que el discurso político, por su falta de realismo, su vaciedad y su previsibilidad, nos suene a los ciudadanos cada vez más hueco”, afirmó el eminente administrativista Antonio Jiménez-Blanco Carrillo de Albornoz, en su discurso de toma de posesión como Académico de Número de la Sección de Derecho de la Real Academia de Doctores de España (RADE), con la medalla número 103.

Se oye con frecuencia que Europa está en crisis por el Brexit, “pues bien, soy de los que piensan que no estamos ante la causa de la crisis, sino ante un mero síntoma de ella”, afirmó el nuevo Académico en su discurso la crisis de la integración europea: ¿Tiene remedio? Sin alardear de “optimismo insensato, sino justo lo contrario”, argumentó que esta crisis es muy profunda, porque recoge y amplifica todos los rasgos de la crisis general de nuestro tiempo globalizado, que no es solo económica. Entre el norte de protestantes y acreedores y el sur de católicos y deudores existe un profundo divorcio de mentalidades que se reproduce en cada una de las opiniones públicas de los países miembros, “como se nos muestra en cada ocasión electoral”.

El rescate de Grecia ha generado una seria oposición en las sociedades de cada parte. Los del norte entienden que nunca debieron seguir alimentando a la cigarra, porque se le desincentiva a que se porte como es debido. Mientras que en el sur, mucha gente piensa que las condiciones son injustas y contraproducentes. En ambos casos surgen partidos populistas: los de derechas son antirescates, y los de izquierdas, antirecortes. Se pone de relieve así, “que, entre unos y otros socios de un mismo mercado y de una moneda única, las mentalidades mayoritarias, que es lo más importante, no solo no convergen sino que se van separando cada vez más”, añadió.

El otro asunto que ha puesto a prueba la integración ha sido la avalancha de refugiados sirios, cuestión en la que los países del occidente europeo se han mostrado muy distintos a los del oriente e, incluso, ha fragmentado la propia Alemania, con una abierta rebelión contra su gobierno por haberse mostrado generoso en demasía. En este caso, el populismo de derecha ha cambiado la bandera del no a los rescates por el no a los refugiados; mientras que los gobiernos del este de Europa, o más bien del centro, se han alineado con ese planteamiento, “no sin coste para los valores de la integración y, sobre todo, la libre circulación de personas”. “Así pues, ruptura entre el norte y el sur, por una parte, y entre el este y el oeste, por otra”, destacó Jiménez-Blanco.

Un proceso con freno y marcha atrás

Esta situación acredita, según el recipiendario, que los dos pilares de nuestra coexistencia, el euro de Maastricht y la libre circulación de personas de Schengen, no responden a un consenso social mínimo. Descubrimos así, de manera amarga, que el proceso de integración europea no es una dinámica lineal, sino que tiene freno y marcha atrás.

Jiménez-Blanco recordó que la historia de la integración europea no nació por un impulso desde abajo, sino por la necesidad de un acuerdo entre Francia y Alemania sobre sus producciones de carbón y acero. Por eso, la Alta Autoridad de la CECA (Comunidad Europea del Carbón y del Acero) estaba blindada frente a los gobiernos y a las respectivas opiniones públicas. Por supuesto, “nadie se planteaba ahí dar a los respectivos electorados (…) la voz para poder, en su caso, vetar el proceso”.

Aunque, al cambiar su constitución en 1958, Francia permitió la democracia directa o refrendataria; en 1972 se formalizó el Consejo Europeo, que reúne a los jefes de gobierno, y en 1976 se constituyó el Parlamento Europeo, Jiménez-Blanco consideró que “la supranacionalidad, sin haber nacido como algo enfrentado a unas opiniones públicas domésticas de las que nada bueno cabía esperar, sí vino al mundo al margen de ellas”.

Sociedades fragmentadas internamente

El presupuesto implícito del proceso era doble. Por un lado, que cada sociedad gozaba de unos mínimos de homogeneidad, lo que daba un respaldo suficiente a cada gobernante cuando fuera a Bruselas discutir. Y, por otro, que las mentalidades irían acercándose a lo largo del tiempo. Pero, no ha sido así, pese a la globalización, y “lo que se ha fragmentado en cada una de las sociedades es su interior”; de forma que, quizá por el efecto combinado de la crisis económica y el espectacular desarrollo tecnológico, esas líneas de división son hoy importantísimas al formar las maneras de pensar de cada quien y, por supuesto, de expresarse electoralmente, en opinión de Jiménez-Blanco.

La toma de decisiones en Europa descansa, en último término, sobre los gobiernos nacionales; “pero si a estos les falta pie, todo el sistema hace aguas”, prosiguió. El Consejo Europeo ha celebrado reuniones sin cuento en los últimos años, “pero la crisis de confianza en sí mismos que muestran los asistentes (temerosos de cómo ‘vender’, al volver cada uno a su pueblucho, tal o cual medida que con toda probabilidad está en frontal entredicho de lo que tuvo la osadía de prometer, confiando en que a los electores les suele fallar la memoria, en tal o cual mitin) hace que, aún estando acuciados por las circunstancias, se sientan atenazados a la hora de intentar resolver problema alguno”. Todo ello causa una crisis de representación en los estados nacionales, porque “las instituciones europeas no son estancas con respecto a las nacionales. Si estas flaquean, salpican enseguida a aquellas”, subrayó.

Para Jiménez-Blanco, puesta en cuestión la moneda única, y lo que subyace a ella, el control del déficit público y la fiabilidad de la cuentas, y la libre circulación de personas, parece haber poco a salvo, menos el llamado mercado interior de bienes y servicios. Así las cosas, el problema abordado resulta indisociable de las crisis “que viven domésticamente los estados, donde, pese a la globalización y a la uniformidad tecnológica, o quizá precisamente por ello, las correspondientes sociedades se muestran cada vez más divididas (y más desconfiadas: vuelvo a la misma palabra) y, por tanto, resultan más difíciles de representar”. “Dicho de otra manera y tratando de responder a la pregunta del título, si la integración europea tiene remedio. Estoy convencido de que sí. Pero hay que empezar por donde está el problema, que es en cada uno de los estados. Que la gente cambie de manera de pensar no es cosa de un día, pero, desde luego, hace falta eliminar los estorbos”, reiteró.

Estudioso del federalismo y el regionalismo

Granadino de nacimiento, Jiménez-Blanco se licenció en Derecho en 1979. Tras ganar la plaza de letrado de las Cortes, marchó a la Universidad de Munich con una beca de la Fundación Juan March, para ampliar estudios sobre federalismos y regionalismos comparados. Se doctoró en Derecho, en 1984, en la Complutense. En 1989 obtuvo la cátedra de Derecho Administrativo de la Universidad de Granada y, en 2009, la de la Politécnica de Madrid, dijo Fernando Bécker Zuazua, de la Sección de Ciencias Políticas y de la Economía, al contestar al recipiendario.

Está en posesión de la Cruz de Honor de la República Federal Alemana y del Premio Robert Schumann, por su contribución a la construcción europea. Tres son sus líneas de investigación principales: el ámbito de las autonomías territoriales y el régimen local, la integración europea y la regulación económica en finanzas y energía, sobre las que ha elaborado numerosos informes y dictámenes nacionales e internacionales. Considerado uno de los mejores administrativistas de España, ha publicado 53 artículos en revistas especializadas, y 49 colaboraciones en obras colectivas, además de una docena de libros.

En su respuesta, Bécker destacó que la irrupción de opciones políticas populistas radicales en los parlamentos nacionales y regionales resulta preocupante, no solo porque el populismo como tal carece de ideología definida, sino porque sus propuestas se alejan del objetivo europeo, y varían entre salir del euro, abolir Schengen, abandonar la UE, aumentar los impuestos a las grandes empresas, nacionalizar sectores económicos o incumplir las obligaciones de la deuda. Y todas ellas, con un elemento común: el factor identitario disgregador. Urge, prosiguió, reforzar las instituciones comunitarias y completar la inacabada arquitectura institucional europea, porque “después del triunfo del Brexit no hay tiempo para las dilaciones”. Sugirió unificar los mercados de bienes y servicios pendientes, como los de energía y capitales, o liberalizar los servicios profesionales. La necesidad de una política de seguridad y defensa común resulta perentoria, añadió, por no citar una mejor y mayor coordinación de las políticas fiscales, la unión de los organismos reguladores, la necesidad de una autoridad financiera única y una larga serie de iniciativas pendientes durante muchos años.

La meteorología tiene a su alcance adelantar la predicción del tiempo hasta diez días

· “La capacidad científica observacional y la computacional son los mejores aliados para construir mejores modelos predictivos y constituyen complementos ineludibles para explicar los fenónemos meteorológicos”, según Francisco Valero Rodríguez, nuevo Académico Correspondiente de la Real Academia de Doctores de España
· Evolucionar hacia un modelo global terrestre de predicción numérica y avanzar en el tratamiento de los datos meteorológicos permitirá predecir cambios de tiempo con cuatro semanas de adelanto y anomalías a escala global con un año de antelación

MADRID (27-02-17).- Adelantar la predicción del tiempo hasta diez días, o predecir cambios climáticos cuatro semanas antes y anomalías a escala global hasta con un año de antelación son algunas de las mejoras al alcance de la investigación meteorológica si amplia su capacidad científica, tanto observacional como computacional, en el futuro inmediato, afirmó Francisco Valero Rodríguez, al tomar posesión de su plaza de Académico Correspondiente de la Sección de Ciencias Experimentales, de la Real Academia de Doctores de España (RADE).

La atmósfera terrestre, con sus 40 kilómetros de espesor, que gira con una esfera irregular de 12.800 kilómetros de diámetro a 1.600 kilómetros por hora y está compuesta por gases muy variados y reactivos que calienta un enorme reactor nuclear situado a millones de kilómetros, es un sistema de imposible control directo e inabordable tratamiento matemático; por lo que “hemos de recurrir a su modelización numérica, nuestro laboratorio virtual, con un conjunto de algoritmos enorme para determinar su estado, comportamiento y evolución, lo que constituye un gran desafío, siempre en las fronteras del conocimiento”, añadió Valero.

Valero, catedrático del Departamento de Física de la Tierra, Astronomía y Astrofísica, de la Universidad Complutense, y colaborador del Centro de Astrobiología (INTA-CSIC), donde participa en misiones a Marte, como la REMS-Curiosity, indicó que, a pesar de las continuas mejoras de las predicciones meteorológicas realizadas con los modelos numéricos, hay que rendirse a la evidencia de la imposibilidad de hacer predicciones precisas más allá de un cierto límite, que viene determinado por: las imperfecciones de los modelos numéricos que simulan la atmósfera, ligadas a la computabilidad; las incertidumbres inherentes a las medidas efectuadas para determinar el estado inicial de la atmósfera y el carácter no lineal intrínseco del modelo.

En las fronteras del conocimiento

En todo caso, si se extrapolan las tendencias actuales, prosiguió Valero, se ve que los modelos numéricos globales han ido aumentando su tasa de alta resolución (16 kilómetros) de forma exponencial durante decenios y su capacidad predictiva a un ritmo constante de un día cada diez años. “Aunque resulta aventurado extrapolar ambas tendencias hasta 2030, si lo hiciéramos, nos llevarían a una reducción del tamaño de malla horizontal de hasta un kilómetro, y un aumento de capacidad predictiva adicional de dos días, respectivamente”, precisó.

La investigación meteorológica se encuentra en las fronteras del conocimiento, indicó Valero, y su evolución pasa por adoptar la aproximación integrada del sistema terrestre hacia un sistema de predicción numérica ambiental de formidable complejidad científica, en la que juega un papel esencial la estrategia de alineación de los nuevos sistemas de predicción numérica metereológica a un modelo terrestre global; así como la asimilación de datos meteorológicos. Con ello, la capacidad predictiva “mejorará, sin duda, permitiendo avances realmente notables, no solo en el medio plazo, hasta díez días de adelanto, sino en las escalas mensual y estacional. Y, no solo esto, si conseguimos desarrollar una aproximación sólida, conseguiremos también predecir patrones a gran escala, y, lo que es más difícil, transiciones de regímenes del tiempo o climáticos hasta con cuatro semanas de adelanto y anomalías a escala global hasta con un año de antelación, y de la meteorología de otros planetas”, señaló.

Para Valero, ese futuro exige avanzar en el conocimiento científico y en las capacidades observacional y computacional, ya que la supercomputación es la responsable de hacer andar los modelos numéricos, con un laboratorio de simulación y de previsión. “La capacidad científica observacional y la computacional son los mejores aliados para construir mejores modelos predictivos y constituyen complementos ineludibles para explicar los fenónemos meteorológicos; y su perfeccionamiento contribuirá a una ciencia meteorológica más sólida, extensa y una mayor utilidad científica y de aplicación”, concluyó.

 

Villar Mir reclama que el sector público juegue un papel activo para favorecer la innovación

· Resulta imprescindible entender la I+D+i con una visión de Estado, a largo plazo y más allá de los ciclos políticos, con sus propios organismos de gobierno y reglas de funcionamiento, dijo el presidente del Grupo Villar Mir en la Real Academia de Doctores de España, de la que es académico de honor
· Niveles crecientes de bienestar, de consumo per cápita, solo son posibles con niveles también crecientes de productividad, lo que solo es posible con personas y con empresas más eficaces, añadió
· Abogó porque se desarrolle un marco normativo favorable a la inversión en I+D+i y a la gestión de los derechos de propiedad intelectual para garantizar el retorno de esa inversión.

MADRID (16-02-17).- El sector público debe jugar un papel activo para favorecer la innovación, fomentando la compra pública innovadora, regulando los mercados de forma eficiente, potenciando el desarrollo tecnológico, e, incluso, participando en la creación de nuevos mercados, manifestó Juan Miguel Villar Mir, presidente del Grupo Villar Mir, exvicepresidente del Gobierno para Asuntos Económicos y exministro de Hacienda y académico de honor de la Real Academia de Doctores de España (RADE), durante su conferencia “Innovación  y  bienestar”, en dicha corporación.  

En el mismo contexto, Villar Mir señaló que “las administraciones deben ser, junto a las empresas, protagonistas de la innovación y actuar al menos en tres diferentes ámbitos: deben apostar por la ciencia como medio para resolver los grandes retos a los que se enfrenta la sociedad; se debe reforzar la apuesta por una administración innovadora, capaz de generar sinergias con el sector privado, y es preciso crear un entorno favorable para los emprendedores y para las empresas innovadoras”. Resulta imprescindible, añadió, “entender la I+D+i con una visión de Estado, a largo plazo y más allá de los ciclos políticos, con sus propios organismos de gobierno y reglas de funcionamiento, con independencia en la gestión y estabilidad en los programas”.
    
Advirtió que, al pretender niveles crecientes de bienestar material, debemos reconocer que ninguna familia, empresa y país puede consumir a largo plazo productos con más valor de los que produce. En consecuencia, a largo plazo, producción y consumo son dos caras de una misma moneda; por lo que niveles crecientes de bienestar, de consumo per cápita, solo son posibles con niveles también crecientes de producción per cápita, es decir, de productividad, lo que solo es posible con personas y con empresas más eficaces. Eso se alcanza gracias a las tres grandes palancas del bienestar: la educación, la innovación y las infraestructuras, que han posibilitado que el PIB per cápita medio en el conjunto del mundo se haya doblado en los últimos treinta años, y que probablemente vaya a doblarse de nuevo en los próximos veinte.

“Investigar por investigar”

La inversión en actividades de I+D, tanto pública como privada, solo es útil cuando da lugar a innovaciones en las empresas, continuó Villar Mir, “pues solo en esa fase se producen aumentos de valores añadidos, que son los integrantes de la renta nacional y de las rentas per cápita”; “mientras que ‘investigar por investigar’, sin orientación para mejorar un proceso o producto concreto, conduce generalmente a gastos inútiles para la mejora del bienestar”.

Tras resaltar las diferencias de gasto en I+D+i entre España, la UE y la OCDE, así como que en nuestro país es mayor el gasto público que el privado en este ámbito al contrario de lo que sucede en otras naciones, dijo que España debe asumir el objetivo marcado por la UE para que dos tercios del gasto en I+D sea aportado por las empresas y solo el tercio restante por la Administración, además de que, en 2020, los miembros de la Unión inviertan un 3 por ciento de su PIB en I+D, del que un 1 por ciento sería de financiación pública y un 2 de inversión privada. “Con ello, se crearían en torno a 3,7 millones de puestos de trabajo y se aumentaría el PIB anual de la UE en cerca de 800.000 millones de euros”. Cumplir estos objetivos exigiría a España un crecimiento constante de un 16 por ciento anual en el sexenio 2015-2020, con un esfuerzo esencial del sector privado, que debería multiplicarse casi por tres, para alcanzar un crecimiento medio acumulativo anual de un 23 por ciento; mientras el gasto público sería de un 12 por ciento.

Antes de la última crisis, el gasto español en I+D crecía por primera vez a tasas superiores a las de Alemania, Francia, Italia y Reino Unido: un 1,35 por ciento del PIB en 2008, a solo 0,45 puntos de la UE 28. Pero, a partir de la crisis los recortes en el gasto público y la inversión privada han vuelto a ensanchar la brecha, que en 2014 volvía a 0,72 puntos, la mayor diferencia desde 2002.

Para recuperar la senda perdida, apuntó Villar Mir, será necesario poner en marcha medidas que creen un entorno favorecedor de la innovación y solucionar deficiencias estructurales importantes, entre las que se encuentran, según la Fundación Cotec, la baja participación de los agentes financieros en la financiación de la innovación o los malos resultados de nuestro sistema educativo. Destacó el impacto negativo que, para el sistema de innovación, suponen los bajos niveles de rendimiento de los alumnos españoles de primaria y secundaria en las competencias básicas, así como las altas tasas de abandono educativo temprano. El desajuste entre la oferta del sistema educativo y la demanda del sistema productivo es, además, un lastre adicional para avanzar hacia la economía del conocimiento, y se manifiesta en la baja tasa de empleo de los recién graduados y en la elevada tasa de sobrecualificación de los titulados en educación superior que consiguen empleo.

Un marco flexible para la ciencia

España necesita incrementar la relevancia de la investigación científica y técnica, creando un marco flexible y eficiente para el desarrollo de la ciencia y la innovación, sin trabas administrativas y regulatorias; potenciar la aparición de nuevas fuentes de financiación, y mejorar la inserción laboral y la movilidad del capital humano, del talento, para que genere conocimiento y se transfiera al tejido productivo. En este aspecto, abogó el conferenciante, entre otras medidas, porque se desarrolle un marco normativo favorable a la inversión en I+D+i y a la gestión de los derechos de propiedad intelectual para garantizar el retorno de esa inversión.

La Encuesta sobre Innovación en las Empresas, prosiguió, desvela que un 28,5 por ciento de las empresas españolas de diez o más asalariados fueron innovadoras en el periodo 2013-15; un registro que nos hace retroceder hasta 2005, cuando se alcanzó un gasto de 13.636 millones de euros, lejos de los casi 20.000 millones de 2008, cuando se alcanzó el mayor gasto en innovación de los últimos diez años. Una peculiaridad española es que un elevado porcentaje de la I+D empresarial la ejecutan pymes. En 2008, empresas de menos de 250 empleados hicieron el 54,4 por ciento del gasto cuando, en nuestro entorno europeo, son las empresas de mayor tamaño las responsables de la mayor parte del gasto. Por eso, dijo, es preciso reforzar las políticas de fomento de la creación de empresas innovadoras y diseñar una estrategia para acelerar el crecimiento e internacionalización de las compañías de alto potencial, para reducir la elevada atomización de los sectores de media y alta tecnología.

Al abordar la necesaria potenciación del sistema educativo, Villar Mir indicó que universidad y empresa debieran ser dos piezas de un mismo engranaje y no desarrollarse de espaldas a la otra. “El mundo empresarial y el mundo académico deben unir sus esfuerzos para lograr un modelo productivo sustentado en la innovación. Su completa sintonía es imprescindible para ejercer el papel que les corresponde en la sociedad del conocimiento y de la información”, afirmó. Mejorar nuestro sistema universitario, agregó, requiere introducir, en sus aspectos no académicos, numerosas prácticas propias de la gestión empresarial. La planificación de objetivos, la gestión, la captación y la retención de talentos, el fomento de la competitividad interna y externa, la dirección estratégica activa o los análisis de eficacia son algunas de las tareas pendientes. De acuerdo con el “Informe del Consejo Económico y Social 1/2009: Sistema educativo y capital humano”, se necesita una reforma curricular de la educación universitaria basada en la flexibilidad y la transversalidad, como mecanismo para afrontar los retos de un mundo globalizado y en constante transformación.

El ponente insistió en la importancia de que se pongan en marcha las medidas necesarias para subsanar dificultades y aportar el necesario y renovado impulso a la investigación y la innovación en la contratación pública en España, a través de esa importante herramienta de fomento de la I+D+i que es la compra pública de innovación, que en los últimos años ha sufrido un importante retroceso en las cantidades empleadas.

El último apartado de su intervención lo dedicó el académico de honor de la RADE a reflejar la intensa y permanente actividad que el Grupo Villar dedica a I+D+i, en colaboración con universidades y centros de investigación y, en algunos casos, con financiación de la UE. Cerca de 500 proyectos, de los que han salido alrededor de 40 patentes, han llevado a cabo las empresas del grupo: Ferroglobe (66 proyectos), Fertiberia (115), OHL (300), e Inmobiliaria Espacio, con dos grandes proyectos de infraestructuras subterráneas conectadas con los edificios en Madrid para resolver previsibles impactos en el tráfico por los cambios de usos urbanísticos: Torrespacio y Canalejas.

La sanidad pública necesita apoyarse más en la privada para ser sostenible y ganar eficacia

Para que la sanidad pública española sea sostenible y cubra las necesidades de la población, debe reducir gastos y ganar eficacia, lo que solo es posible si se apoya en la gestión privada en un mayor porcentaje que hasta ahora, a través de una mayor coordinación y colaboración, según se puso de manifiesto en la mesa redonda “El coste en sanidad en España”, celebrada en la Real Academia de Doctores de España (RADE), bajo la presidencia de su titular, Jesús Álvarez Fernández-Represa.

Según Juan Iranzo Martín, Académico de Número de la Sección de Ciencias Políticas y de la Economía, “dedicamos un 6,5 por ciento del PIB al sistema nacional de salud, unos 70.000 millones al año, que junto a un 3 por ciento adicional del sistema privado, constituye un gasto cercano a un 10 por ciento en sanidad en España”, añadió. El modelo está sufriendo un profundo cambio, como consecuencia del envejecimiento de la población, porque las enfermedades agudas se convierten en crónicas. Una persona con más de 70 años tiene una media de tres enfermedades crónicas y está polimedicada. La mitad de este grupo de población ingiere más de ocho pastillas diarias, indicó Iranzo.

Otro problema es la insuficiente comunicación entre las comunidades autónomas en el campo sanitario, que duplica pruebas y diagnósticos. El sistema está fragmentado, pero no solo el público, sino también entre el público y el privado. No hay clara colaboración entre ambos, y muchos ciudadanos pagan dos y tres veces su asistencia sanitaria mediante los impuestos, las cuotas a aseguradoras privadas y, en ocasiones, asistencia privada. “Además, no está resuelto suficientemente el tratamiento de las enfermedades psíquicas y raras”, señaló.

Entre las posibles soluciones, Iranzo mencionó el incremento de las políticas de prevención, que generaría un ahorro fundamental económico y social. Se declaró partidario de un ticket regulador para la asistencia sanitaria, como el que existe para los medicamentos, con el fin de controlar la demanda, que no es lo mismo que cofinanciar, ya que, cuando el precio de un bien o servicio es cero, la demanda tiende a infinito.

Hay que potenciar, añadió, la asistencia primaria para que el tratamiento directo al paciente se haga en el centro de salud, y no trasladar inadecuadamente el problema al especialista. Es preciso analizar la evolución de los gastos en la farmacia hospitalaria, que fue el único toque de atención que hicieron los “hombres de negro”, de la UE, a España en materia de sanidad. Conectar en red todos los centros sanitarios, afirmó, permitiría compartir información sobre el paciente y abarataría costes. Propugnó la coordinación real entre las comunidades autónomas, para eliminar las barreras actuales, que llevan a intercambiar pacientes en el límite geográfica entre comunidades, y defendió el replanteamiento del modelo de hospital a favor del muy especializado, frente a las grandes ciudades sanitarias.

Consideró imprescindible la coordinación público-privada para mantener la sostenibilidad, tanto en hospitales como en tecnología, de modo que los recursos tecnológicos, de elevado coste, funcionen casi todo el día. Así como aprovechar la red de farmacias para que, dotadas de medios tecnológicos, hagan el seguimiento de los pacientes, y no desde los centros sanitarios. Pruebas-piloto hechas en el País Vasco, han demostrado que esta medida reduce las consultas de urgencia en un 50 por ciento, y un 56 por ciento las hospitalizaciones.

Finalmente, el ponente propuso separar la sanidad de la dependencia, porque la asistencia a los dependientes no se hace adecuadamente en los hospitales y es más costosa; se declaró a favor de una red global especializada para las enfermedades raras, donde se atienda a los enfermos de todas las comunidades, y no que exista una especialidad en cada comunidad.

84.000 millones en enfermedades mentales

Inés López-Ibor Alcocer, Académica Correspondiente de la Sección de Medicina, dijo que los trastornos mentales y las enfermedades neurológicas suponen un gasto de 84.000 millones de euros anuales para España, según datos de 2010. El gasto mayor es de los trastornos mentales (46.000 millones) frente a las enfermedades neurológicas (38.000). El coste medio por paciente se cifra en 2.440 euros al año, desde 36.946 euros para pacientes con esclerosis múltiple, hasta 402 euros para los que sufren dolores de cabeza. El coste más elevado es el de los trastornos psicóticos, 17.576 euros al año. Lo más importante, advirtió, es que un 47 por ciento del total son costes indirectos, frente a un 41 de costes sanitarios directos y un 12 de no sanitarios.

Las demencias generan un gasto de 15.402 millones de euros al año, los trastornos del estado de ánimo, 10.763; la ansiedad, 10.365; los accidentes cerebrovasculares, 8.584, y los trastornos psicóticos, 7.973. El impacto económico de los trastornos más frecuentes, ansiedad y depresión, supera el de otras enfermedades físicas, como la esclerosis múltiple, la epilepsia o los tumores cerebrales. El impacto de las enfermedades mentales, según los datos de 2010, equivale a casi un 8 por ciento del PIB, “pero no se invierte mucho en ellas”, puntualizó.

Entre 1990 y 2013 los enfermos de depresión o ansiedad han aumentado cerca de un 50 por ciento, de 416 a 615 millones de afectados, casi un 10 por ciento de la población mundial, según la OMS. Pero la inversión en servicios de salud mental son muy inferiores a lo necesario.

Afirmó López-Ibor, que los beneficios de invertir en el tratamiento de la ansiedad y la depresión son cuatro veces superiores al gasto asociado. Por cada dólar invertido se consigue un retorno de cuatro, gracias a un mejor estado de salud y una mayor productividad de los afectados. Si el coste de la atención ascendiera a 147.000 millones de dólares, el aumento de la productividad laboral (5 por ciento), supondría 399.000 millones de dólares, y la mejoría de su salud aportaría 310.000 millones más.

Con la crisis económica, la tasa de suicidios ha aumentado en los distintos países, sobre todo, en población más joven, según un estudio de la Fundación López-Ibor. En España fallecieron por suicidio, en 2016, casi el doble de personas que por accidentes de tráfico. La crisis ha provocado una progresiva psiquiatrización de los malestares de la vida, con el consiguiente consumo de antidepresivos y ansiolíticos. La consecuencia es que la prescripción de antidepresivos ha aumentado un 10 por ciento cada año en los últimos diez, sin que esté demostrado su eficacia, por ejemplo, en las reacciones de duelo. “A lo mejor, muchos de nuestros pacientes depresivos no están diagnosticados, mientras otros están sobrediagnosticados”, subrayó. Sin embargo, su consumo es cada vez mayor. En España, ansiolíticos y antidepresivos son los medicamentos más vendidos. Casi un 15 por ciento de la población toma un ansiolítico y el 17, un hipnótico.

López-Ibor apuntó que la farmacogenética aplicada a la psiquiatría está ayudando a afrontar este problema, porque “si sabemos cómo alguien metaboliza un fármaco y que ese es el medicamento que le va a sentar bien en una enfermedad crónica, evitaremos un coste al sistema importante, acertaremos en el tratamiento y habrá menos efectos secundarios, porque las reacciones adversas son importantes: en España causan 80.000 estancias hospitalarias y casi 1.800 muertes anuales difíciles de detectar. Si se aplicase la farmacogenética podrían reducirse entre un 10 y un 20 por ciento las reacciones adversas, se mejoraría de un 10 a un 40 por ciento la respuesta a los fármacos, además de disminuir los costes sanitarios en un 12. Para concluir, López-Ibor dijo que, entre las medidas que deben tomarse en el sistema sanitario, hay que tener en cuenta “si son eficaces y eficientes nuestras intervenciones”.

Se confunde externalización con privatización

Eugenio Prieto Pérez, Académico de Número de la Sección de Ciencias Políticas y de la Economía, analizó el estado de los seguros privados de salud en España, cuyas primas ascendieron, en 2016, a 7.600 millones de euros, casi un 12 del gasto en sanidad. Cuentan con seguro de salud 10,6 millones de ciudadanos, atendidos por 75 entidades aseguradoras, de las que cinco reúnen el 72 por ciento de las primas.

Dado que el sostenimiento del sistema nacional de salud depende de las condiciones presupuestarias, Prieto abogó porque, en el futuro, se asigne al sector sanitario privado una parte mayor de la gestión pública mediante conciertos y colaboraciones, siguiendo el modelo de la MUFACE, la Mutualidad General Judicial y el Instituto Social de las Fuerzas Armadas, que cubren a casi dos millones de funcionarios que han tenido la opción de elegir entre sanidad pública y privada. “La externalización de los servicios sanitarios se confunde con la privatización de la sanidad con tintes ideológicos de consecuencias nefastas al impedir que se dote a España de un sistema sanitario más eficiente, manifestó.

“En la medida que la combinación de gestión pública-privada consiga mayores niveles de eficacia, dentro de los objetivos sociales del sistema nacional de salud, se estará contribuyendo a su sostenibilidad”, aseguró Prieto. “Al ser la sanidad un componente importante del estado de bienestar, su sostenibilidad solo es posible con la reducción del gasto mediante ganancia de eficiencia, si se pretende no dejar de cubrir las necesidades sanitarias de la población al nivel actual”.

Para finalizar, Prieto aseveró que es obligada la colaboración ciudadana a la sostenibilidad, promoviendo una sociedad más saludable. Según la OMS, un 40 por ciento del gasto sanitario se dedica a enfermedades asociadas a hábitos no saludables: tabaco, alcohol, tensión arterial alta, colesterol u obesidad.

En el coloquio, Iranzo hizo hincapié en que en la sanidad pública no hay análisis de costes. “No sabemos cuánto cuesta un día de hospitalización, ni lo que cuesta la farmacia hospitalaria”. Prieto señaló que “las entidades aseguradoras tienen un déficit técnico muy significado, pero siguen funcionando porque no pierden la esperanza. Si queremos que sea sostenible, la sanidad pública tiene que apoyarse en la gestión privada; al menos, en un mayor porcentaje, y ya está bien que seamos los funcionarios los que tengamos esas ventajas. Lo que yo quiero es que esa capacidad de elección entre pública y privada se universalice o, al menos, aumentar el ámbito en que se pueda elegir”.

Respecto al coste de los medicamentos, Iranzo puntualizó que desarrollar una molécula cuesta entre ochocientos y mil millones de euros, y tienen éxito dos o tres de cada diez. Pero el periodo de vigencia de la patente, que en teoría es de 20 a 25 años, pasa por una serie de barreras burocráticas, y al final quedan en diez o doce años, por lo que propone alargarlo. Negó, además, que el sistema de subastas de medicamentos sea real, porque lo que se hace es conseguir el abastecimiento de un laboratorio y recibir una contraprestación.

Cerró la sesión el Presidente de la RADE, Álvarez Fernández-Represa que, entre otras cosas, manifestó que “la sanidad es un pozo sin fondo”. En su experiencia como director de un departamento de cirugía de un gran hospital, agregó, nunca recibió información sobre sus costes, y las cosas continúan igual. Recordó también que aquella pretensión de entregar a los pacientes “facturas” meramente informativas del coste ocasionado por su hospitalización se prohibió de inmediato.

La sanidad pública necesita apoyarse más en la privada para ser sostenible y ganar eficacia

· Los especialista sugieren una mayor asignación de la gestión pública sanitaria al sector privado mediante conciertos, según el modelo de la MUFACE, la Mutualidad General Judicial o el Instituto Social de las Fuerzas Armadas
· Eugenio Prieto: “La externalización de los servicios sanitarios se confunde con la privatización de la sanidad con tintes ideológicos de consecuencias nefastas, al impedir que se dote a España de un sistema sanitario más eficiente”.
· Juan Iranzo afirma que en la sanidad pública no hay análisis de costes. “No sabemos cuánto cuesta un día de hospitalización, ni lo que cuesta la farmacia hospitalaria”.
· Para Inés López-Ibor, una de las medidas más importantes en psiquiatría es tener en cuenta “si son eficaces y eficientes nuestras intervenciones”.

MADRID (14-03-17).- Para que la sanidad pública española sea sostenible y, a la vez, cubra las necesidades asistenciales de la población, debe reducir gastos y ganar eficacia, lo que solo es posible si se apoya en el sector privado en mayor medida que hasta ahora, con una mejor y más amplia coordinación y colaboración. Esta es la conclusión compartida por los académicos y expertos en economía sanitaria Eugenio Prieto Pérez y Juan Iranzo Martín, que junto a la doctora Inés López-Ibor Alcocer, participaron en la mesa redonda “El coste en sanidad en España”, organizada por la Real Academia de Doctores de España (RADE).

Dado que el sostenimiento del sistema nacional de salud depende de las condiciones presupuestarias, Prieto, académico de número de la Sección de Ciencias Políticas y de la Economía, de la RADE, y excatedrático de Matemática Financiera y de la Inversión de la Universidad Complutense, abogó porque, en el futuro, se asigne al sector sanitario privado una parte mayor de la gestión pública mediante conciertos y colaboraciones, siguiendo el modelo de la MUFACE, la Mutualidad General Judicial y el Instituto Social de las Fuerzas Armadas, que cubren a casi dos millones de funcionarios que han tenido la opción de elegir entre sanidad pública y privada

“En la medida que la combinación de gestión pública-privada consiga mayores niveles de eficacia, dentro de los objetivos sociales del sistema nacional de salud, se estará contribuyendo a su sostenibilidad”, aseguró Prieto, para quien “la externalización de los servicios sanitarios se confunde con la privatización de la sanidad con tintes ideológicos de consecuencias nefastas, al impedir que se dote a España de un sistema sanitario más eficiente”.

Añadió Prieto que es obligada la colaboración ciudadana a la sostenibilidad del sistema sanitario, para promover una sociedad más saludable, puesto que, según la OMS, un 40 por ciento del gasto sanitario se dedica a enfermedades asociadas a hábitos no saludables: tabaco, alcohol, tensión arterial alta, colesterol u obesidad.

Al responder a preguntas de los asistentes, Prieto manifestó que, “si queremos que sea sostenible, la sanidad pública tiene que apoyarse en la gestión privada, al menos, en un mayor porcentaje. Ya está bien que seamos los funcionarios los que tengamos esas ventajas. Lo que yo quiero es que esa capacidad de elección entre pública y privada se universalice o, al menos, aumentar el ámbito en que se pueda elegir”.

Aprovechar al máximo los recursos tecnológicos

Iranzo, académico de número de la Sección de Ciencias Políticas y de la Economía, de la RADE, y catedrático de Economía Aplicada en la Universidad Nacional de Educación a Distancia (UNED), que ha intervenido en varios estudios sobre la sanidad pública, consideró imprescindible una mayor coordinación público-privada para mantener la sostenibilidad asistencial, tanto en materia de hospitales como de tecnología, de modo que los recursos tecnológicos, de elevado coste, estén funcionando casi todo el día.

Tras destacar que “dedicamos un 6,5 por ciento del PIB al sistema nacional de salud, unos 70.000 millones al año, que junto a un 3 por ciento adicional del sistema privado, constituye un gasto cercano a un 10 por ciento en sanidad en España”, Iranzo se detuvo en repasar los problemas más acuciantes del sistema, entre los que citó el envejecimiento de la población, que supone la conversión de las enfermedades agudas en crónicas con un alto índice de población mayor polimedicada; la insuficiente comunicación entre las comunidades autónomas en el campo sanitario, que duplica pruebas y diagnósticos, y la fragmentación entre el sistema público y el privado, que es la causa de que muchos ciudadanos paguen dos y tres veces su asistencia sanitaria mediante los impuestos, las cuotas a las aseguradoras y, a veces, la asistencia privada.

Incrementar las políticas de prevención para generar ahorro económico y social, establecer un ticket regulador de la asistencia como el de los medicamentos, para controlar la tendencia a infinito de todo servicio gratuito, y potenciar la asistencia primaria para que no se traslade al paciente inadecuadamente al especialista, son algunas soluciones propuestas por el ponente.

Se mostró partidario también de aprovechar la red de farmacias para que, dotadas de medios tecnológicos, se encarguen del seguimiento de los pacientes, que según las pruebas-piloto hechas en el País Vasco, han demostrado que reduce las consultas de urgencia en un 50 por ciento, y un 56 por ciento las hospitalizaciones.

Es preciso, agregó Iranzo, analizar la evolución de los gastos en la farmacia hospitalaria, que fue el único toque de atención que hicieron los “hombres de negro”, de la UE, a España en materia de sanidad. En el coloquio, Iranzo hizo hincapié en que en la sanidad pública no hay análisis de costes. “No sabemos cuánto cuesta un día de hospitalización, ni lo que cuesta la farmacia hospitalaria”.

Valorar la eficacia de las intervenciones sanitarias

Por su parte, la doctora Inés López-Ibor Alcocer, académica correspondiente de la Sección de Medicina, de la RADE, y profesora del Departamento de Psiquiatría de la Universidad Complutense, sostuvo que una de las medidas más importantes en su campo es tener en cuenta “si son eficaces y eficientes nuestras intervenciones”.

Los trastornos mentales y las enfermedades neurológicas suponen un gasto de 84.000 millones de euros anuales para España, según datos de 2010. Pero, lo más importante, advirtió López-Ibor, es que un 47 por ciento del total son costes indirectos, frente a un 41 de costes sanitarios directos y un 12 de no sanitarios. El impacto económico de los trastornos más frecuentes, ansiedad y depresión, supera el de otras enfermedades físicas, como esclerosis múltiple, epilepsia o tumores cerebrales. El impacto de las enfermedades mentales, según datos de 2010, equivale a casi un 8 por ciento del PIB, “pero no se invierte mucho en ellas”, puntualizó.

Afirmó López-Ibor, que la crisis ha provocado una progresiva psiquiatrización de los malestares de la vida, con el consiguiente consumo de antidepresivos y ansiolíticos. La prescripción de antidepresivos ha aumentado un 10 por ciento cada año en los últimos diez, sin que esté demostrado su eficacia, por ejemplo, en las reacciones de duelo. “A lo mejor, muchos de nuestros pacientes depresivos no están diagnosticados, mientras otros están sobrediagnosticados”, subrayó. Sin embargo, su consumo es cada vez mayor. En España, ansiolíticos y antidepresivos son los medicamentos más vendidos. Casi un 15 por ciento de la población toma un ansiolítico y el 17, un hipnótico.

Farmacogenética igual a ahorro de costes sanitarios

La farmacogenética, que estudia el efecto de la variabilidad genética de un individuo en su respuesta a determinados fármacos, aplicada a la psiquiatría está ayudando a afrontar este problema, prosiguió la ponente, porque “si sabemos cómo alguien metaboliza un fármaco y que ese es el medicamento que le va a sentar bien en una enfermedad crónica, evitaremos un coste al sistema importante, acertaremos en el tratamiento y habrá menos efectos secundarios, porque las reacciones adversas son importantes: en España causan 80.000 estancias hospitalarias y casi 1.800 muertes anuales difíciles de detectar. Si se aplicase la farmacogenética podrían reducirse entre un 10 y un 20 por ciento las reacciones adversas, se mejoraría de un 10 a un 40 por ciento la respuesta a los fármacos, además de disminuir los costes sanitarios en un 12.

Cerró la sesión el Presidente de la RADE, Álvarez Fernández-Represa que, entre otras cosas, aseveró que “la sanidad es un pozo sin fondo”. En su experiencia como director de un departamento de cirugía de un gran hospital, dijo, nunca recibió información sobre sus costes, y las cosas continúan igual. Recordó también que aquella pretensión de entregar a los pacientes “facturas” meramente informativas del coste ocasionado por su hospitalización, al objeto de mentalizar a los ciudadanos del coste de su asistencia sanitaria, se prohibió de inmediato.

Víctor Santiuste propone una nueva pedagogía que haga mejores seres humanos, creativos y críticos

 El objeto de estudio de la nueva pedagogía, basada en el lenguaje, habrá de ser la formación de un sistema conceptual, bien estructurado, que sea capaz de hacer sujetos independientes y creativos; es decir, mejores seres humanos preparados para hacer las preguntas científicas adecuadas y para pensar críticamente, según la propuesta formulada por el profesor Víctor Santiuste Bermejo, al tomar posesión de su plaza de Académico Correspondiente de la Real Academia de Doctores de España (RADE).

Pedagogo, con una extensa labor investigadora, Santiuste Bermejo es catedrático del área de Psicología Evolutiva de la Educación en las universidades Complutense e Internacional de La Rioja, como manifestó al presentarle el doctor Emilio de Diego García, Secretario General de la RADE y miembro de la Sección de Humanidades, a la que se ha incorporado el recipiendario.

En el comienzo de su discurso de ingreso, Biología, lenguaje y educación. Reflexiones críticas sobre una nueva pedagogía científica, el doctor Santiuste, rememoró su estrecha relación científica y humana con Mariano Yela, en cuyo grupo de investigación “Pensamiento y lenguaje”, realizó una de las primeras tesis doctorales sobre gramática generativa hechas en España: Comprobación experimental del principio de ambigüedad en la T.G.G. “Aquella actividad universitaria replanteó el desarrollo de mi antigua preocupación acerca de la fundamentación científica de la pedagogía y la posibilidad de relacionar los estudios pedagógicos con los modelos epistemológicos aportados por la filosofía, la psicología y la biología”, continuó. Planteamiento que supondría “el abandono del concepto de la pedagogía como una disciplina aplicada, considerada como un mero arte de enseñar y como guía de los aprendizajes de los alumnos”.

El modelo propuesto por la filosofía, siguió Santiuste, contribuía a establecer un sistema teórico, basado en sus aportaciones a la crítica del conocimiento, de la acción moral y del análisis del lenguaje. La psicología aportaba un modelo de ciencia experimental y, posteriormente, una nueva disciplina, la psicolingüística, una psicología fisiológica que vinculaba el estudio de los procesos psicológicos a las explicaciones fisiológicas, se convirtió en vanguardia de la ciencia biológica aplicada a la educación y en la nueva neurociencia cognitiva.

El lenguaje, objeto de la ciencia de la educación

Desde la perspectiva pedagógica, la adaptación escolar del alumno, su “buena escolaridad”, se ve muy perturbada por una adquisición lenta o deficiente del lenguaje que le impide seguir las enseñanzas y la vida social del grupo. No progresa al ritmo de los demás e, incluso, se ve comprometido el desarrollo de sus capacidades abstractas por limitaciones lingüísticas (ambigüedades, paráfrasis, elipsis...). Por ello, afirmó Santiuste, el objeto de estudio de esta nueva ciencia de la educación es el lenguaje. Una perspectiva mejor estudiada a partir del nacimiento de la psicolingüística, nueva área de conocimiento que surge del Social Science Research Council, con la colaboración de médicos, psicólogos y lingüistas, en la Universidad de Indiana, y que se desarrolla en el Departamento de Psicología y el Centro de Ciencia Cognitiva del Massachussets Institute of Technology (MIT), con otras aportaciones.

Siguiendo el eje conductor de su exposición, el paradigma psicológico propuesto por la psicología cognitiva y su posterior desarrollo en la Teoría de la Gramática Generativa, Santiuste subrayó que el lenguaje es parte de la dotación biológica y genética del ser humano, cuya explicación científica descansa en su proceso de biologización. Biología, lenguaje y educación son tres realidades científicas que interactúan en la explicación de la naturaleza humana y de sus funciones comunicativas. El modelo de aprendizaje, apuntó, describe una estructura sintáctica que se relaciona, a través de las reglas de transformación, con las representaciones semánticas y fonéticas. “Y este es un punto de controversia entre la biología, el lenguaje y la pedagogía: el estudio de la teoría de la adquisición del lenguaje”, añadió.

Al referirse a lo que debería ser una nueva pedagogía científica, Santiuste aseguró que “nos dirigimos hacia una forma de hacer una ciencia pedagógica sistemática, realista, explicativa, basada en teorías científicas con aproximaciones sintácticas y semánticas en el ámbito educativo, tal y como afirman los filósofos de la ciencia (Hempel, Suppe, Popper)” .

Nueva concepción del aprendizaje

De la mano de la neurociencia aplicada a la educación, prosiguió, la nueva pedagogía estudiará la naturaleza de la enseñanza y el aprendizaje y proporcionará indicadores biológicos que sustituyan a los antiguos tests psicológicos en la detección de los problemas de desarrollo de la personalidad, de dificultades de aprendizaje y otros.

“Mi propuesta es que el objeto de estudio de la nueva pedagogía, el lenguaje, tal como venimos diciendo, habrá de ser la formación de un sistema conceptual, bien estructurado, que sea capaz de hacer sujetos independientes y creativos; es decir, mejores seres humanos preparados para hacer las preguntas científicas adecuadas y para pensar críticamente”, dijo Santiuste. También es necesario, agregó, abordar una nueva concepción del aprendizaje, desde un planteamiento interdisciplinar basado en la neurofisiología, la psicología y la educación, que consistiría en estudiar el fortalecimiento de las conexiones sinápticas y los mecanismos moleculares que expliquen la organización de las neuronas en circuitos y arquitecturas funcionales del cerebro, en relación con los conocimientos que se imparten en las aulas.

Para que la nueva educación cumpla su prioridad de que el alumno sea capaz de inferir las preguntas adecuadas para entender los valores intelectuales, artísticos, científicos y morales, convendría que las facultades de Educación generen programas de formación con aportaciones de neurociencia cognitiva, aprendizaje neurológico, relaciones entre cerebro y mente e, incluso, que colaboren con departamentos de las facultades de Medicina, que facilitarían conocimientos biológicos aplicados a la educación, como la sinaptogénesis y los períodos críticos del desarrollo, señaló Santiuste. La psicología pedagógica actual necesita acudir a la ciencia biológica para analizar las causas orgánicas por las que un niño no puede aprender a leer y a escribir. Los avances en la investigación sobre el funcionamiento del cerebro nos ayudan a obtener una mejor comprensión del currículo escolar, los requerimientos de estudiantes con necesidades especiales e incontables otros aspectos relativos a la enseñanza.

Estos estudios, como destacó el recipiendario, son imprescindibles para los educadores y pretenden ser un paso más para determinar las necesidades del ámbito educativo “para ayudar a los más retrasados y para elevar el nivel cualitativo de la escuela, que es el de la misma sociedad”, en un proceso largo y complejo, que encuentra problemas en la formación de nuevos profesores e investigadores universitarios, y “que requiere más y mejores medios materiales de aparataje y laboratorios en las facultades de Educación”.

Dilatado historial investigador

Diplomado y licenciado en Ciencias de la Educación, licenciado en Filosofía y doctor en ambas especialidades, Santiuste ha sido becario postdoctoral en el Departamento de Psicología Experimental del MIT, profesor visitante del Colegio Complutense de la Universidad de Harvard y de la Facultad de Educación de dicha universidad, y profesor invitado e investigador en la Sorbona y en Otawa (Canadá), entre otros centros universitarios de Suramérica, Portugal y España.

Ha dirigido numerosos proyectos de investigación sobre ontogénesis del lenguaje, pensamiento crítico, dificultades de aprendizaje y educación inclusiva, entre otros temas, y dirige el grupo de investigación sobre “Aplicaciones de las nuevas tecnologías a procesos psicológicos en la vejez”, en la Complutense.

Es autor de 55 libros y de 65 artículos académicos, así como de más de un centenar de comunicaciones y ponencias invitadas en congresos, seminarios y jornadas. Ha dirigido una treintena de tesis doctorales y más de un centenar de tesinas, además de impartir 25 seminarios y cursos en centros de primer nivel. Es editor, miembro del consejo de redacción y juez evaluador de revistas nacionales e internacionales.

En el campo de la administración educativa, ha desarrollado seminarios didácticos de institutos de bachillerato y sus gabinetes de orientación, y ha fundado y dirigido distintos centros. Ha presidido el Jurado del Bachillerato Internacional Europeo, en el British Council School Board. Es Presidente de la Asociación para el Desarrollo del Pensamiento Crítico y Creativo, además de miembro de otras organizaciones nacionales e Internacionales en su especialidad.

Víctor Santiuste propone una nueva pedagogía, basada en el lenguaje, capaz de hacer sujetos independientes y creativos

· El nuevo Académico Correspondiente de la Real Academia de Doctores de España, dedicó su discurso de ingreso a “Biología, lenguaje y educación. Reflexiones críticas sobre una nueva pedagogía científica”
· Biología, lenguaje y educación son tres realidades científicas que interactúan en la explicación de la naturaleza humana y de sus funciones comunicativas
· Con la neurociencia aplicada a la educación la nueva pedagogía estudiará la naturaleza de la enseñanza y el aprendizaje y proporcionará indicadores biológicos que sustituyan a los antiguos tests psicológicos
· Los avances en la investigación sobre el funcionamiento del cerebro ayudan a obtener una mejor comprensión del currículo escolar, los requerimientos de estudiantes con necesidades especiales e incontables otros aspectos relativos a la enseñanza

MADRID (28-03-17).- El objeto de estudio de la nueva pedagogía, basada en el lenguaje, habrá de ser la formación de un sistema conceptual, bien estructurado, que sea capaz de hacer sujetos independientes y creativos; es decir, mejores seres humanos preparados para hacer las preguntas científicas adecuadas y para pensar críticamente, según la propuesta formulada por el profesor Víctor Santiuste Bermejo, al tomar posesión de su plaza de Académico Correspondiente de la Real Academia de Doctores de España (RADE).

Pedagogo, con una extensa labor investigadora, Santiuste Bermejo es catedrático del área de Psicología Evolutiva de la Educación en las universidades Complutense e Internacional de La Rioja. El trabajo sobre su tesis doctoral le hizo replantearse el desarrollo de su antigua preocupación acerca de la fundamentación científica de la pedagogía y la posibilidad de relacionar los estudios pedagógicos con los modelos epistemológicos aportados por la filosofía, la psicología y la biología”. Planteamiento que supondría “el abandono del concepto de la pedagogía como una disciplina aplicada, considerada como un mero arte de enseñar y como guía de los aprendizajes de los alumnos”.

Desde la perspectiva pedagógica, la adaptación escolar del alumno, su “buena escolaridad”, se ve muy perturbada por una adquisición lenta o deficiente del lenguaje que le impide seguir las enseñanzas y la vida social del grupo. No progresa al ritmo de los demás e, incluso, se ve comprometido el desarrollo de sus capacidades abstractas por limitaciones lingüísticas (ambigüedades, paráfrasis, elipsis...). Por ello, afirmó Santiuste, el objeto de estudio de esta nueva ciencia de la educación es el lenguaje. Una perspectiva mejor estudiada a partir del nacimiento de la psicolingüística, nueva área de conocimiento que surge del Social Science Research Council, con la colaboración de médicos, psicólogos y lingüistas, en la Universidad de Indiana, y que se desarrolla en el Departamento de Psicología y el Centro de Ciencia Cognitiva del Massachussets Institute of Technology (MIT), con otras aportaciones.

Siguiendo el eje conductor de su exposición, el paradigma psicológico propuesto por la psicología cognitiva y su posterior desarrollo en la Teoría de la Gramática Generativa, Santiuste subrayó que el lenguaje es parte de la dotación biológica y genética del ser humano, cuya explicación científica descansa en su proceso de biologización. Biología, lenguaje y educación son tres realidades científicas que interactúan en la explicación de la naturaleza humana y de sus funciones comunicativas. El modelo de aprendizaje, apuntó, describe una estructura sintáctica que se relaciona, a través de las reglas de transformación, con las representaciones semánticas y fonéticas. “Y este es un punto de controversia entre la biología, el lenguaje y la pedagogía: el estudio de la teoría de la adquisición del lenguaje”, añadió.

Al referirse a lo que debería ser una nueva pedagogía científica, Santiuste aseguró que “nos dirigimos hacia una forma de hacer una ciencia pedagógica sistemática, realista, explicativa, basada en teorías científicas con aproximaciones sintácticas y semánticas en el ámbito educativo, tal y como afirman los filósofos de la ciencia (Hempel, Suppe, Popper)” .

Nueva concepción del aprendizaje

De la mano de la neurociencia aplicada a la educación, prosiguió, la nueva pedagogía estudiará la naturaleza de la enseñanza y el aprendizaje y proporcionará indicadores biológicos que sustituyan a los antiguos tests psicológicos en la detección de los problemas de desarrollo de la personalidad, de dificultades de aprendizaje y otros.

También es necesario, agregó, abordar una nueva concepción del aprendizaje, desde un planteamiento interdisciplinar basado en la neurofisiología, la psicología y la educación, que consistiría en estudiar el fortalecimiento de las conexiones sinápticas y los mecanismos moleculares que expliquen la organización de las neuronas en circuitos y arquitecturas funcionales del cerebro, en relación con los conocimientos que se imparten en las aulas.

Para que la nueva educación cumpla su prioridad de que el alumno sea capaz de inferir las preguntas adecuadas para entender los valores intelectuales, artísticos, científicos y morales, convendría que las facultades de Educación generen programas de formación con aportaciones de neurociencia cognitiva, aprendizaje neurológico, relaciones entre cerebro y mente e, incluso, que colaboren con departamentos de las facultades de Medicina, que facilitarían conocimientos biológicos aplicados a la educación, como la sinaptogénesis y los períodos críticos del desarrollo, señaló Santiuste. La psicología pedagógica actual necesita acudir a la ciencia biológica para analizar las causas orgánicas por las que un niño no puede aprender a leer y a escribir. Los avances en la investigación sobre el funcionamiento del cerebro nos ayudan a obtener una mejor comprensión del currículo escolar, los requerimientos de estudiantes con necesidades especiales e incontables otros aspectos relativos a la enseñanza.

Estos estudios, como destacó el recipiendario, son imprescindibles para los educadores y pretenden ser un paso más para determinar las necesidades del ámbito educativo “para ayudar a los más retrasados y para elevar el nivel cualitativo de la escuela, que es el de la misma sociedad”, en un proceso largo y complejo, que encuentra problemas en la formación de nuevos profesores e investigadores universitarios, y “que requiere más y mejores medios materiales de aparataje y laboratorios en las facultades de Educación”.

El matemático José Javier Etayo ingresa en la Real Academia de Doctores de España

Con su discurso Un estudio de las superficies no orientables. Notas para una genealogía doctoral, José Javier Etayo Gordejuela, catedrático de Álgebra, de la Universidad Complutense, tomó posesión como Académico de Número de la Real Academia de Doctores de España (RADE), con la medalla número 55 de la Sección de Ciencias Experimentales, en un acto solemne presidido por el titular de la corporación, Jesús Álvarez Fernández-Represa.

La primera parte de la exposición de Etayo giró en torno a los conceptos profundos y complejos de las superficies de Klein no orientables y sus grupos de automorfismos; un tipo de superficies que constituye una de las tres grandes familias nacidas a partir de las superficies de Riemann. Sobre estas cuestiones desarrolló treinta y cuatro teoremas de honda especialización. Esta materia ha sido el objeto de investigación del doctor Etayo desde que obtuvo el grado de doctor, con la tesis Sobre grupos de automorfismos de superficies de Klein, como indicaron él mismo y el académico encargado de contestar a su discurso de ingreso, Arturo Romero Salvador, miembro también de la Sección de Ciencias Experimentales.

La noción común del espacio en el que se sitúan los objetos y en el que tienen lugar los fenómenos que observamos en la naturaleza, que denominamos espacio material, debe sustituirse por otro concepto del espacio, el físico, para que puedan realizarse estudios científicos. Se trata de un espacio abstracto en el que los objetivos, trayectorias y fenómenos que se observan en el espacio material se sustituyen por elementos idealizados, transformados en puntos, planos y curvas. Mientras que en la primera forma de concebir el espacio, el material, se utilizan técnicas experimentales, en la segunda, el espacio físico, se trabaja con técnicas geométricas, deductivas, como explicó en su contestación el doctor Romero.

La validez del espacio abstracto, que se ha denominado físico, depende de que represente unívocamente al material. Inicialmente, continuó Romero, este espacio abstracto era euclidiano y se pensaba que sus proposiciones (la enunciación de una verdad demostrada o que se pretende demostrar) eran consecuencia de los postulados (proposiciones cuya verdad se admite sin pruebas para servir de base en ulteriores razonamientos) porque con ellos se describían los hechos del espacio real.

Del espacio natural al matemático

Cuando se utilizaron las técnicas desarrolladas por los geómetras para trabajar en el espacio euclidiano, con otra finalidad distinta, como es la de explorar la existencia de otros espacios diferentes, fueron apareciendo nuevos espacios que son correctos en su formulación matemática, aunque no representan el espacio natural que nos rodea. Los hallazgos de estos nuevos espacios han surgido sin que se haya buscado su vinculación con el mundo natural, por lo que se pueden considerar espacios matemáticos. Las ciencias físicas comprueban experimentalmente que el espacio de la naturaleza no es el espacio material que se pensaba y se describía en el espacio euclidiano, sino que es más parecido a los espacios matemáticos que se han deducido con métodos geométricos. Por tanto, la matemática, que nace para representar las observaciones de objetos y fenómenos naturales, es capaz de crear representaciones que tienen su propia dinámica y que a veces aportan soluciones a problemas surgidos en el mundo físico.

A mediados del XIX empezó a desarrollarse la idea de superficies de Riemann ligadas a una determinada función, hiperbólica, parabólica o elíptica. Posteriormente, siguió Romero, se llevó a cabo el estudio de estas superficies de manera abstracta, como variedades independientes de las funciones que les dieron origen, utilizando un componente algebraico y otro analítico-geométrico. Después aparecieron otras superficies, como la de Klein, que corresponden a curvas algebraicas complejas, cuyo estudio se basa en conceptos también complejos, como superficies no orientables, superficies abiertas, grupo de automorfismos o estructuras dianalíticas.

Aparte de la belleza intelectual que tiene para los especialistas, o la estética, para los profanos, de la botella de Klein, el conocimiento de estas superficies y de sus propiedades se necesita para facilitar la comprensión del mundo. La teoría de estas superficies se utiliza, por ejemplo, en un modelo fundamental de la física teórica, la teoría de cuerdas, en la que se considera que las partículas materiales son estados vibracionales de un objeto más básico llamado cuerda, o de la teoría topológica cuántica de campo, usada en física de la materia condensada.

Genealogía doctoral

En la segunda parte de su discurso, el doctor Etayo, se refirió al empeño de la comunidad científica internacional por reconstruir la llamada genealogía doctoral, con la finalidad de trazar las líneas que llevan de los actuales doctores a los que dirigieron sus respectivas tesis, y así, sucesivamente, hasta donde se pueda llegar. Este intento choca con una primera dificultad conceptual, la definición del director de una tesis doctoral; un problema que hoy no existe, pero, si se retrocede en el tiempo, es un concepto mucho más laxo o inexistente. En consecuencia, al volvernos hacia atrás, la relación resulta ser de discípulo y maestro.

Se extendió Etayo en recorrer las normas legales reguladoras del doctorado, para reconstruir la genealogía doctoral del grupo de investigación en superficies, cuyos resultados había reflejado en la primera parte de su disertación. Según los datos recogidos en el Mathematics Genealogy Project (MGP), a Tomás Rodríguez Bachiller, a quien se remonta la larga historia de los estudios sobre las superficies a las que se ha dedicado Etayo, se le atribuyen 648 descendientes doctorales, producidos por siete estudiantes a los que dirigió sus tesis. De Rodríguez Bachiller hacia atrás, con las dificultades consiguientes, se llega a Eduardo Torroja, como el antecesor de la gran mayoría de los matemáticos españoles, al que el MGP asigna más de 1.700 descendientes. Sin embargo, Etayo niega la relación discípulo-maestro entre Torroja y Staudt, que el MPG refleja.

Para finalizar, el nuevo Académico Numerario de la RADE, afirmó que “sería urgente completar la labor de reconstrucción de los doctorados españoles, al menos en matemáticas, que es un campo bastante tasado y pequeño, a partir del real decreto de 1847 de Nicomedes Pastor Díaz”.

Dedicación a la teoría de grupos

Licenciado en Matemáticas por la Complutense en 1979, Etayo se doctoró en la misma universidad en 1983, con premio extraordinario. En dicha institución fue profesor ayudante y titular interino de Geometría y Topología. Profesor titular de Álgebra en 1986, es actualmente catedrático de esta disciplina, señaló Romero. Estudió Derecho en la UNED, donde obtuvo la licenciatura en 2000.

Comparando el título de su primer libro, Teoría elemental de grupos, con el del último, Elementos de matemáticas y sus aplicaciones, podría deducirse que el interés de Etayo se ha ido desplazando desde los fundamentos a las aplicaciones. Lo mismo ocurre, indicó Romero, con su último proyecto de investigación financiado, en el que añade al de geometría real el término de aplicaciones, por primera vez en los proyectos en que ha participado. Sin embargo, las dos últimas tesis doctorales que ha dirigido, una Sobre el género real de los grupos finitos y la otra Sobre el género imaginario de grupos finitos, y los trabajos de fin de máster y de fin de grado, ponen de manifiesto que nunca ha abandonado su dedicación a la teoría de grupos.

Ha sido miembro del Comité Evaluador de Ciencias Experimentales de la Agencia de Calidad, Acreditación y Prospectiva de las universidades de Madrid y ha participado en el programa Academia de la ANECA. Sus investigaciones han obtenido financiación, sistemáticamente, en convocatorias competitivas. Sus aportaciones se han publicado en importantes revistas de matemáticas, siempre en torno al tema de su tesis doctoral. Ha desarrollado una importante labor de gestión académica en distintos órganos de gobierno de la universidad, hasta desempeñar el cargo de Vicerrector de Desarrollo Estatutario y Claustro. Su tarea ha sido reconocida con las medallas de Servicios Prestados y de Honor de la Complutense.

“No cabe duda que hizo una buena elección cuando comenzó a trabajar en uno de los temas centrales de las matemáticas, en el que es preciso dominar técnicas algebraicas, geométricas, topológicas, analíticas, numéricas y, además, conocer y aplicar la gran variedad de interacciones que se originan entre ellas”, añadió Romero, para cerrar su intervención diciendo que, con la incorporación de Etayo, la Sección de Ciencias Experimentales cubre la ausencia de un matemático en sus filas.

Dieciséis años después de la caída de las Torres Gemelas, no hay soluciones seguras contra el fuego en rascacielos

· Los materiales y el diseño de los edificios en materia antiincendios están como hace 30 años, es la conclusión de la sesión “Qué derribó las Torres Gemelas”, en la Real Academia de Doctores de España
· Lo que diferencia los incendios de las Torres Gemelas es la carga de fuego que aportan los hidrocarburos que contenían los dos aviones, afirmó José María Martínez-Val, académico de número de la RADE
· La causa última del desastre, subrayó Martínez-Val, fue que a 600 grados centígrados el acero se deforma y, al sobrepasar esa temperatura, fluye como plastilina hasta romperse y la estructura desaparece
· Un acontecimiento de estas características “generó y genera un buen número de alertas, que no están resueltas a día de hoy”, afirmó Antonio Mas-Guindal Lafarga, profesor Departamento de Estructuras y Física de Edificación, de la Universidad Politécnica de Madrid

- Pie de foto.- Antonio Mas-Guindal, José María Martínez-Val Peñalosa, Jesús Álvarez Fernández-Represa, presidente de la RADE, y Manuel García Velarde, académico y moderador.

MADRID (05-04-17).- Dieciséis años después del desastre de las Torres Gemelas, a pesar de las medidas que se toman, no hay solución contra el fuego en un rascacielos, porque el diseño contra este elemento está como hace 30 años. En cualquier caso, la catástrofe del 11-S en Nueva York, traerá avances y los nuevos materiales inaugurarán una era y aportarán soluciones innovadoras, según los expertos que han participado en la sesión “Qué derribó las Torres Gemelas”, organizada por la Real Academia de Doctores de España (RADE).

Al exponer los detalles del atentado cometido por los terroristas islamistas, José María Martínez-Val Peñalosa, Presidente de la Sección de Ingeniería de la RADE, destacó uno de especial trascendencia: uno de los aviones que se estrelló contra una de las torres, a unos 750 kilómetros por hora, llevaba una carga de unos 10.000 galones estadounidenses (38.000  litros) de combustible.

Una teoría de la conspiración extendió la posibilidad de que hubiera explosivos en las torres. Pero, en realidad, como apuntó Martínez-Val, al haber mucha densidad de energía disponible, los incendios fueron caóticos por la desproporción entre los efectos y los daños. El análisis científico, de acuerdo con las conclusiones del NIST (National Institute of Science and Technology), basados en el conocimiento previo de la resistencia de los metales y los efectos sobre ellos de las altas temperaturas, condujo a la explicación oficial: la alta temperatura generada por los incendios provocados en ambos edificios provocó el fallo de los elementos estructurales de acero, ya debilitados por los impactos de los aviones.

La causa última del desastre, como subrayó el académico, fue que a 600 grados centígrados el acero se deforma y, al sobrepasar esa temperatura, fluye como plastilina hasta romperse y, como concluyó el NIST, la estructura desapareció. Lo que diferencia los incendios de las Torres Gemelas es la carga de fuego que aportan los hidrocarburos que contenían los dos aviones, afirmó Martínez-Val.

Alertas sin resolver

Un acontecimiento de estas características “generó y genera un buen número de alertas, que no están resueltas a día de hoy”, manifestó Antonio Mas-Guindal Lafarga, profesor titular del Departamento de Estructuras y Física de Edificación, de la Universidad Politécnica de Madrid.

Los edificios actuales, prosiguió este experto, siguen siendo de hormigón armado y pretensado de acero, sin que existan en el horizonte materiales nuevos, y ambos han condicionado el tipo y el número de plantas. No ha habido grandes descubrimientos en el terreno de la mecánica estructural, precisó, aunque sí un gran avance en la capacidad de modelización y análisis.

Mencionó Mas-Guindal varios factores que conducen a que un edificio en altura se desestabilice: que no esté bien diseñada su estabilidad, la acción del viento y de los sismos, el vuelco, el accidente y el atentado. Nunca se pensó que esto pudiera suceder en las Torres Gemelas, pero el ataque terrorista pulverizó en pocas horas cualquier pronóstico o previsión, dijo. Los dos edificios estaban dotados de tres tanques de agua de 18.500 metros cúbicos en previsión de incendio. Pero, ni esta ni ninguna de las previsiones que existían sirvió de nada.

Al preguntarse él mismo ¿por qué cayeron las torres?, respondió: “Estaban diseñadas a viento y para el impacto de un avión comercial convencional; pero no para las consecuencias de un fuego prolongado, cuyo efecto sobre el acero a tensión lo plastifica en pocos momentos y reduce drásticamente su rigidez. A ello hay que sumar el impacto, la explosión y el fuego. En mi opinión, y al margen de las informaciones vertidas en los medios de comunicación, el causante fue la deflagración producida por el fuel del avión preparado para un largo recorrido. Las fuerzas de elasticidad del impacto excedían la capacidad de carga de la torre por ser de otro orden de magnitud. Hubiera habido tiempo suficiente para evacuarla de no haber fundido pilares importantes en la planta 60, que ocasionaron inestabilidad en las cuarenta y cincuenta que actuaron desaplomadas causando un vuelco imposible de ser contrarrestado por los pilares perimetrales, que debieron independizarse de la fachada por el tipo de unión y el núcleo”.

No hay soluciones al fuego en rascacielos

El diseño a fuego en los edificios está como hace 30 años, añadió Mas-Guindal, y este fatal suceso llevará sin duda a producir nuevas investigaciones. “Pero no hay solución al fuego en un rascacielos. Existen medidas, pero nunca garantizadas”, sentenció.

Para resumir, el ponente afirmó que deberán diseñarse edificios con otra sensibilidad en las soluciones. Se requiere otra habilidad en el diseño de la estructura y los nuevos materiales abren una era distinta y aportarán soluciones innovadoras. Ha habido adelantos, admitió, pero quedan pendientes muchos problemas de interacción en el diseño, como la posición de ascensores, escaleras y núcleos para determinar el centro de masas y el de esfuerzos cortantes. Siguen latentes los problemas de evacuación y de extinción de un fuego, que no están resueltos porque son inherentes a la escala y la altura, y no al material.

Antes de terminar, Mas-Guindal hizo una advertencia inquietante: toda persona que entre en un edificio alto debe saber que tiene un coeficiente de riesgo superior a uno bajo. “No hay soluciones ante el fuego en ningún tipo de material y estructura”. Lo prudente, señaló, sería no edificar en altura ante posibles tragedias por un error fortuito, un incendio no provocado, como el del Winsor de Madrid, o provocado, “pero sería igual que no fabricar trenes AVE por su posible choque, prohibir la Fórmula 1, o tomar un avión. El hombre siempre se ha movido por actividades de riesgo”.

En el coloquio, el doctor Amable Liñán, académico electo de la RADE y reconocido experto internacional en materia de combustión, indicó que el impacto del avión sobre una estructura que no estaba preparada para esa eventualidad favoreció la dispersión de la importante masa de queroseno que llevaban las aeronaves, tanto por la zona de la colisión como por los canales de ventilación, huecos de ascensores y espacios verticales. La fuente de ignición estaba garantizada por el impacto, y la llama debió ser de difusión, producida por el lento proceso necesario para que se mezclaran el combustible líquido con el oxígeno del aire. Todo ello causó el desastre, que era inevitable: al arder la gran masa de combustible, se calentó y debilitó la estructura metálica, lo que originó el fallo por bandeo.

El vehículo eléctrico, un paradigma que superará las trabas que dificultan su penetración

Beneficios para la salud ciudadana y la lucha contra el cambio climático y menores costes de mantenimiento son algunas ventajas del coche eléctrico que, junto a las barreras que dificultan su penetración actual, como trabas administrativas, impuestos medioambientales o innovaciones técnicas pendientes, se expusieron en la sesión “El vehículo eléctrico: nuevo paradigma industrial y social”, organizada por la Real Academia de Doctores de España (RADE), y patrocinada por la Fundación para el Fomento de la Innovación Industrial (F212), que presidió Jesús Álvarez Fernández-Represa y moderó Saturnino de la Plaza Pérez, Presidente y Vicepresidente, respectivamente, de la corporación.

Para Ernesto Salas, Director de Relaciones Institucionales de Renault España, que abrió los turnos de intervención, el elemento clave del coche eléctrico es la batería, que ha reducido volumen y peso, al tiempo que ha aumentado su capacidad de almacenamiento gracias a la tecnología de ion-litio. El rendimiento del motor eléctrico, dijo, es mucho mejor que el del térmico, y ofrece un par constante que da una curva de potencia lineal; mientras que en el térmico depende de las revoluciones. La ventaja de tener el par máximo desde el primer momento hace que la aceleración sea perfecta y más viva que la del térmico.

Como principales ventajas del vehículo eléctrico, Salas subrayó la ausencia de emisiones contaminantes y de ruido. Su conducción es, además, mucho más reposada y con menor riesgo de accidente. La gran cuestión, añadió, es la autonomía. Cien kilómetros al día serían suficientes para responder a muchos usos del vehículo eléctrico; pero las nuevas baterías llegan a 400 kilómetros de autonomía homologados, con el mismo índice de consumos, emisiones y otros parámetros. El consumo, apuntó, depende de los conductores y las circunstancias, pero actualmente la autonomía garantizada alcanza los 300 kilómetros sin recarga, cuando la media de un taxista es de unos 250 kilómetros/día. Estos datos revelan que quien haga 60 kilómetros diarios no tendría que recargarlo todos los días, y un taxista podría hacer una jornada completa sin cargar.

Los tiempos de carga, según Salas, dependen de la potencia de la fuente, y va de ocho horas a una. Con veinte o treinta minutos se obtiene un 80 por ciento de carga, partiendo de cero. La facilidad de cargar la batería es una limitación para una parte de la potencial clientela que no disponga de un garaje o un parking público que ofrezca este servicio, reconoció. Sin embargo, existen opciones: tener puntos de carga en los aparcamientos de las empresas, o en centros comerciales y de ocio, a pesar de la existencia de trabas de tipo administrativo. “Desterremos la idea de plantar de puntos de carga las calles y las aceras. Los puntos de carga tienen una función de quitamiedos para asegurar que se pueda cargar el vehículo un día en que se ha usado más de forma inesperada. Hay proyectos europeos para que en las grandes autopistas haya puntos de carga rápida para alargar la autonomía”.

Más caro que el térmico

Otro factor negativo es el precio de compra, más caro que el del vehículo térmico por el coste de la batería y por economía de escala. Con los volúmenes de producción actuales, los costes fijos son muy elevados y obligan a producir con fábricas dimensionadas al efecto. Por eso se tarda tanto en entregar el vehículo eléctrico a su comprador, admitió Salas. Por otro lado, el ciudadano particular suele olvidar el coste de utilización y se fija prioritariamente en el de compra. Pero el mayor beneficio está en el gasto variable de energía, en el que el eléctrico gana por una relación de dos a diez al de combustible. El mantenimiento es mucho más sencillo: no necesita cambio de aceite y el mantenimiento para diez años puede ser un 30 por ciento inferior.

Dos temas de los vehículos eléctricos generan polémica: la reducción del CO2 y el precio, manifestó Francisco Laverón, responsable de Prospectiva Energética en la Dirección de Políticas Energéticas y Cambio Climático, que depende directamente de la Presidencia de Iberdrola. Citó un informe de referencia, elaborado por organismos públicos y entidades privadas de los Estados Unidos, cuya conclusión es que los vehículos eléctricos están entre los que menos CO2 emiten en la actualidad y en los escenarios futuros teniendo en cuenta su ciclo de vida completo.

Si la electricidad se produce con una central de carbón, la intensidad de emisiones del vehículo eléctrico es bastante elevada. Pero, en realidad, continuó Laverón, con el mix de generación eléctrica de la UE de 28 miembros, en 2016 sus emisiones fueron de unos 50 gramos, muy inferiores al térmico. Y en el futuro la diferencia aumentará, aunque ambos vehículos van a mejorar su eficiencia, porque la UE tiene el compromiso de descarbonizar el sector eléctrico, de forma que, para 2030, la electricidad será mucho menos intensiva en CO2. Y para 2050, las emisiones del coche eléctrico serán casi nulas, porque la economía tendrá que estar prácticamente descarbonizada.

Los estudios de Iberdrola sobre costes del automóvil eléctrico confirman que el gasto variable es más bajo que el del térmico. El punto de intersección se alcanza a los 25.000 kilómetros/año; por encima de esa cifra, es más rentable el eléctrico que el de combustible. El sector eléctrico está pagando CO2 y renovables, mientras que el del transporte no soporta esta carga. Si los consumidores de todas las fuentes de energía tuvieran que pagar por razones medioambientales, la rentabilidad del vehículo eléctrico bajaría de 25.000 a 15.000 kilómetros anuales. Si a esto se suma que las baterías reducen precios a ritmos inimaginables hace dos años, la competitividad del vehículo eléctrico está muy cerca, y su penetración depende de una decisión política para asignar costes medioambientales. Laverón terminó propugnando que las políticas contra el cambio climático y para la calidad del aire se coordinen entre las administraciones que intervienen ahora por separado, estados y ayuntamientos, para que sean coherentes y compartan objetivos de largo plazo.

Apuesta por la sostenibilidad

La Fundación para el Fomento de la Innovación Industrial (F2I2), creada en 1992 por la Universidad Politécnica de Madrid, a iniciativa de la Escuela Técnica Superior de Ingeniería Industrial, en colaboración con el Ministerio de Industria y Energía, apostó hace poco más de dos años por la sostenibllidad, la movilidad eléctrica y la implantación del automóvil eléctrico, para lo que decidió crear un clúster con automóviles de este tipo de vehículos, que en este plazo de tiempo han recorrido más de 300.000 kilómetros, afirmó Javier Cano, responsable de la Oficina Técnica de la Dirección, en la citada fundación.

“Desde la perspectiva técnica, hemos tenido que pelear con las normas reguladoras, que afectan al usuario. El primer escollo encontrado tuvo que ver con las normas, que son muchas y que los usuarios no tienen por qué conocer”, prosiguió Cano. Por ejemplo, el código técnico de la edificación limita las instalaciones eléctricas en aparcamientos colectivos, el reglamento de baja tensión contiene una instrucción técnica complementaria que fija los requisitos de seguridad, instalaciones, etc., del coche eléctrico y la recarga, que constituye otra barrera; y otro problema que han encontrado fue que el mercado no proveía de los productos necesarios para hacer las instalaciones adecuadas de la red de recarga, por lo que decidieron desarrollar su propio sistema de recarga.

Respecto a la degradación de la batería, Cano indicó que, con 50.000 kilómetros recorridos, el vehículo que él conduce ha perdido del orden de un 10 por ciento de capacidad de carga. En cuanto a la tarifa eléctrica que interesa para optimizar el uso del vehículo, destacó que una tarifa de discriminación horaria, que ofrece 14 horas de precio reducido, el consumo del hogar no se ve apenas penalizado, pero el ahorro para el automóvil eléctrico es bastante notable. Hay otra tarifa, pensada para el vehículo eléctrico, que no es útil porque solo tiene una franja de horario súper valle de seis horas y, con las potencias contratadas habituales no se puede recargar completamente la batería en ese tiempo, y la penalización compensa el poco ahorro que supone para el coche.

Cano aseveró que, según los manuales, para una vida media de diez años con 20.000 kilómetros anuales, el mantenimiento del eléctrico cuesta prácticamente un tercio menos que el térmico. La diferencia con otros datos expuestos se basan en que la fundación ha considerado otros aspectos, como pastillas de frenos, ruedas, etc., que también influyen en el coste total del coche. En el caso del clúster de la F212, con una estimación de vida útil de un vehículo en diez años y 200.000 kilómetros recorridos, el gasto hubiera alcanzado los 30.500 euros.

Madrid: Cinco millones de vehículos eléctricos en 25 años

Basándose en datos de 2016, generar la electricidad consumida en los 300.000 kilómetros recorridos por el clúster produjo 15 toneladas de CO2. De haber usado vehículos diesel, con un consumo estimado en seis litros por cien kilómetros, se habrían generado unas 56 toneladas, por lo que se ha evitado emitir más de 40 toneladas de CO2.

Cerró las intervenciones José María Martínez-Val, Patrono-Director de la F212, Presidente de la Sección de Ingeniería de la RADE y catedrático de termotecnia de la Universidad Politécnica de Madrid. Madrid, dijo, puede tener cinco millones de vehículos eléctricos en 25 años, y transformar radicalmente la movilidad. Agregó que, en agosto próximo, presentarán un informe de viabilidad en la Universidad Menéndez Pelayo, donde ya se anunció el arranque del clúster. Una de las cuestiones fundamentales del vehículo eléctrico es que tiene mucha relación con las emisiones contaminantes y con sus consecuencias en la salud, “que no están debidamente estudiadas en nuestro país.

Respecto a la movilidad, Martínez-Val señaló que se puede crear una red profunda de túneles de interconexión en Madrid. No se puede circular por túneles profundos y largos con motores de combustión, porque se asfixiarían los motores y los ocupantes, además del riesgo de incendio por la carga térmica de fuego potencial. Pero todos esos inconvenientes desaparecen con vehículos totalmente eléctricos. De esta forma, se evitarían los estrangulamientos espectaculares, como los que soporta la N-I, porque no se puede hacer una R-I, o los atascos matinales y vespertinos de la M-30. Todo eso puede cambiar radicalmente si gran parte del desarrollo vehicular se hace con coches eléctricos, concluyó.

La unidad entre católicos y luteranos, un camino con escollos todavía pendientes de resolver

Católicos y luteranos caminan juntos la senda hacia la unidad de ambas iglesias si, como parece posible, se alcanza una formulación común sobre la cuestión de la justificación, concepto que hoy entendemos como salvación. No obstante, subsisten diferencias por resolver sobre el ministerio ordenado, la jerarquía y la estructura de la Iglesia; es decir, de contenido eclesiológico, y también sacramentales. Sobre estas materias trató la mesa redonda “A los 500 años de Lutero: Desencuentro y encuentro”, en la que, moderados por Santiago Madrigal Terrazas, Presidente de la Sección de Teología de la Real Academia de Doctores (RADE), debatieron los Académicos de Número Juan Antonio Martínez Camino, jesuita, y Martín Gelabert Ballester, dominico, presididos todos por el titular de la corporación, Jesús Álvarez-Fernández Represa.

Como dijo el doctor Madrigal, el 31 de octubre próximo católicos y protestantes celebraremos, por primera vez en la historia, una conmemoración conjunta de la Reforma como fruto del intenso diálogo ecuménico de los últimos decenios. El 31 de octubre de 1517 es la fecha de la Reforma Protestante, que llevó adelante un monje agustino, Martín Lutero, nacido en 1483, con la propuesta de 95 tesis como base de una disputa académica sobre las indulgencias que pretendían recaudar fondos en Alemania para la construcción de una basílica en Roma.

En 1999 se hizo la declaración conjunta sobre el tema de la justificación, tema inscrito en el corazón de la teología de Lutero que dividía a las dos iglesias secularmente; y en 2013, la Comisión Mixta del Diálogo Católico-luterano publicó el documento Del conflicto a la comunión, que cuenta los orígenes la división, los logros del diálogo ecuménico, y explica por qué hoy es posible celebrar juntos la conmemoración el origen de la ruptura.

La reforma que acabó en ruptura

Martínez Camino afirmó que, en su programa de reforma de la Iglesia, Lutero pensaba que el cristianismo sufría una deformación generalizada a causa de que Roma falsificaba el Evangelio y promovía la corrupción. Aquella reforma acabó en ruptura, por lo que Lutero no consiguió su objetivo, y, aunque no lo pretendiera, contribuyó a la secularización de la cultura y, por lo tanto, fue muy negativa para la fe cristiana, por lo que, todavía hoy, constituye un gran desafío para la Iglesia.

El deseado restablecimiento de la unidad de los cristianos tendrá que basarse, continuó el ponente, en lo mucho que nos une. De Lutero sigue siendo válida, y fuente de inspiración para todos, su pasión por Cristo y la seriedad con que deseaba encontrarse con un Dios misericordioso. Esa cuestión le penetraba el corazón y estaba en el fondo de su lucha interior y sus investigaciones teológicas. Hoy, entre los cristianos, todos presuponemos que Dios es generoso y, en su misericordia, no tendrá en cuenta nuestras faltas. La cuestión de Lutero ya no nos preocupa, subrayó Martínez Camino.

En el origen de la búsqueda de Lutero, según Martínez Camino, había una conciencia atormentada por la culpa, una mentalidad de penitencia medieval. Se abrió camino en el estudio de la Sagrada Escritura y el descubrimiento de la justicia de Dios, que identificaba con su misericordia. La justicia de un Dios salvador. Y, todo ello, en el marco de una vida eclesiástica llena de escándalos: la venta de las indulgencias, la batalla por el poder temporal, obispos que eran príncipes territoriales o gobernadores de la Iglesia, etc. Pero, los límites de su búsqueda, para muchos, están siempre demasiado ligados al “yo” que busca, y no se abre suficientemente al “nosotros”, que es la Iglesia.

Una vez aclarada la cuestión de la justificación, para la que hay vías de solución abiertas, prosiguió Martínez Camino, quedan las cuestiones relativas al ministerio ordenado, a la jerarquía de la Iglesia, a la estructura de la Iglesia, porque el fondo del problema sigue siendo eclesiológico: la presencia de la palabra de Dios en el mundo, la sucesión apostólica, el ministerio episcopal. Palabra y testigo van juntos, no hay palabra sin testigo. Y quedan pendientes los símbolos de la fe y el Credo, que originan divergencias entre ambas iglesias.

El restablecimiento de la plena comunión ha de ser un objetivo fundamental para quienes deseamos ser testigos del Dios de la misericordia, aseguró Martínez Camino. Dos cosas estamos ya haciendo en común: la celebración de los 500 años conjuntamente y la fe en el Dios vivo. “Podemos ir a peor también, pero tenemos que guardar lo que tenemos en común”, y no olvidar que el ecumenismo inició su camino a raíz de la persecución nazi contra católicos y luteranos por igual.

Justo y pecador

Para Gelabert, el objetivo de esta conmemoración de los 500 años de la Reforma no pretende mirar al pasado, sino comprender el presente. A partir de la declaración conjunta sobre la justificación, o salvación, el acuerdo es total en que Dios nos justifica, pero sigue habiendo diferencias. Lutero dice que el pecador justificado es, a la vez, justo y pecador. Para Trento y la Iglesia católica, el pecador justificado deja de ser pecador y es totalmente justo. Según Lutero, en la persona justificada sigue habiendo una oposición a Dios, lo que es en sí un verdadero pecado, incompatible con la teología católica. Sin embargo, los luteranos afirman que, a pesar del pecado, el cristiano ya no está separado de Dios.

¿Qué clase de pecado es este que produce oposición, pero no separa de Dios?, se preguntó el orador. Una explicación sería que esta doctrina nos recuerda el peligro continuo que viene del poder del pecado y su acción en el cristiano. La concupiscencia permanece en el bautizado. Para Trento es algo natural, pero, para Lutero, es la expresión de la permanente aversión del hombre contra Dios, el egoísmo que siempre nos acompaña y se traduce en rebeldía. De ahí que el justificado, en el que siempre hay concupiscencia, siga siendo pecador.

Desde la perspectiva luterana, se puede considerar que el deseo, la concupiscencia, puede ser la apertura por la que el pecado ataca. Si se acepta así, la concupiscencia deja de ser pecado para ser punto de apertura del que se aprovecha el pecado. “Estamos ante dos comprensiones de la concupiscencia que conducen a conclusiones teológicas distintas. Para los católicos, es una realidad natural, y para los luteranos, una realidad personal. Si es natural, no puede ser pecado, pero si es personal, puede serlo”, añadió.

Para superar la polémica, puede ser útil, según Gelabert, situar las posiciones de unos y otros en su propio contexto teológico, doctrinal e histórico. Leídas por sí mismas, las posiciones parecen incompatibles. “Pero si tenemos en cuenta el diferente uso lingüístico y el distinto contexto espiritual, si distinguimos entre lo que se dice y lo que se quiere decir, y además situamos las fórmulas dentro del amplio conjunto en el que se encuentran, comparten una gama de matices y precisiones que la sola y estricta fórmula no puede expresar, y que permiten un serio acercamiento entre unos y otros y hacen posible una coincidencia de lo que se quiere decir, aunque sea dicho de distintos modos”, agregó.

Una Iglesia santa y pecadora

El propio Lutero reconoce que, cuando nos reconocemos pecadores, estamos dando un paso hacia Cristo. “El sentimiento que tiene el pecador habría que entenderlo, según mi lectura de Lutero, y la de otros, en un sentido dinámico, como un estado de marcha, cuyo resultado es la penitencia. Si la fórmula tiene un sentido penitencial, debe entenderse existencialmente y no ontológicamente. También Trento utiliza el lenguaje penitencial, que se encuentra en unos y otros”.

Si no vamos más allá de las oposiciones, no hay modo de superarlas, manifestó Gelabert, antes de decir que, probablemente, Tomás de Aquino aceptaría una fórmula del tipo: simul peccator et fidelis, el creyente puede ser a la vez pecador y justo, porque el único pecado que aparta al hombre totalmente de Dios es la apostasía. Por lo tanto, el creyente es también un pecador, simul iustus et peccator. Una aplicación de esta fórmula sería que la Iglesia es santa y pecadora. El mismo Vaticano II declara que la Iglesia encierra en su seno pecadores y que, siendo al mismo tiempo santa y necesitada de purificación, avanza por la senda de las penitencia y de la renovación.

Si lo que católicos y luteranos conmemoramos ahora es una pelea, no hay nada que celebrar, advirtió el ponente. Pero, si la pelea puede superarse y buscamos comprender las circunstancias históricas y doctrinales que la propiciaron para aprender a no repetirla y encontrar caminos para resolverla, entonces es bueno recordar el pasado y celebrar los caminos que han conducido a un presente de concordia y colaboración.

En el coloquio, Gelabert mantuvo la opinión de que hay una cierta influencia del catolicismo sobre el luteranismo, en el que hay divisiones respecto al acercamiento a Roma; mientras que Martínez Camino, tras destacar que el luteranismo no es un conjunto homogéneo, se mostró partidario de una mayor influencia del luteranismo sobre el catolicismo.

La unidad entre católicos y luteranos, un camino con escollos todavía pendientes de resolver

· Juan Antonio Martínez Camino y Martín Gelabert Ballester analizaron el estado del diálogo ecuménico entre las iglesias católica y luterana en la Real Academia de Doctores de España
· El 31 de octubre próximo católicos y protestantes celebrarán conjuntamente, por primera vez en la historia, los 500 años de la Reforma de Lutero
· Aunque la cuestión de la justificación parece más fácil de resolver en el diálogo ecuménico, subsisten diferencias de contenido eclesiológico y sacramentales entre ambas teologías
· Martínez Camino: “El deseado restablecimiento de la unidad de los cristianos tendrá que basarse en lo mucho que nos une”
· Gelabert: “Si la pelea puede superarse y buscamos comprender las circunstancias históricas y doctrinales que la propiciaron para aprender a no repetirla y encontrar caminos para resolverla, entonces es bueno recordar el pasado y celebrar los caminos que han conducido a un presente de concordia y colaboración.


MADRID (27-04-17).- Católicos y luteranos caminan juntos hacia la unidad de ambas iglesias si, como parece posible, se alcanza una formulación común sobre la cuestión de la justificación, concepto que hoy entendemos como salvación. No obstante, subsisten diferencias por resolver sobre el ministerio ordenado, la jerarquía y la estructura de la Iglesia; es decir, de contenido eclesiológico, y también sacramentales. Sobre estas materias trató la mesa redonda “A los 500 años de Lutero: Desencuentro y encuentro”, en la que, moderados por Santiago Madrigal Terrazas, Presidente de la Sección de Teología de la Real Academia de Doctores (RADE), debatieron los Académicos de Número Juan Antonio Martínez Camino, jesuita, y Martín Gelabert Ballester, dominico.

Como apuntó Madrigal, el 31 de octubre próximo católicos y protestantes celebraremos, por primera vez en la historia, una conmemoración conjunta de la Reforma como fruto del intenso diálogo ecuménico de los últimos decenios. El 31 de octubre de 1517 es la fecha de la Reforma Protestante, que llevó adelante el monje agustino, Martín Lutero, nacido en 1483, con la propuesta de 95 tesis como base de una disputa académica sobre las indulgencias que pretendían recaudar fondos en Alemania para la construcción de una basílica en Roma.

En 1999 se publicó la declaración conjunta sobre el tema de la justificación, tema inscrito en el corazón de la teología de Lutero que dividía a las dos iglesias secularmente; y en 2013, la Comisión Mixta del Diálogo Católico-luterano publicó el documento Del conflicto a la comunión, que cuenta los orígenes la división, los logros del diálogo ecuménico, y explica por qué hoy es posible celebrar juntos la conmemoración el origen de la ruptura.

La reforma que acabó en ruptura

Martínez Camino afirmó que, en su programa de reforma de la Iglesia, Lutero afirmaba que el cristianismo sufría una deformación generalizada a causa de que Roma falsificaba el Evangelio y promovía la corrupción. Aquella reforma acabó en ruptura, por lo que Lutero no consiguió su objetivo, y, aunque no lo pretendiera, contribuyó a la secularización de la cultura y, por lo tanto, fue muy negativa para la fe cristiana, por lo que, todavía hoy, constituye un gran desafío para la Iglesia.

El deseado restablecimiento de la unidad de los cristianos tendrá que basarse, continuó el ponente, en lo mucho que nos une. De Lutero sigue siendo válida, y fuente de inspiración para todos, su pasión por Cristo y la seriedad con que deseaba encontrarse con un Dios misericordioso. Esa cuestión le penetraba el corazón y estaba en el fondo de su lucha interior y sus investigaciones teológicas. Hoy, entre los cristianos, todos presuponemos que Dios es generoso y, en su misericordia, no tendrá en cuenta nuestras faltas. La cuestión de Lutero ya no nos preocupa, subrayó Martínez Camino.

En el origen de la búsqueda de Lutero, según Martínez Camino, había una conciencia atormentada por la culpa, una mentalidad de penitencia medieval. Se abrió camino en el estudio de la Sagrada Escritura y el descubrimiento de la justicia de Dios, que identificaba con su misericordia. La justicia de un Dios salvador. Y, todo ello, en el marco de una vida eclesiástica llena de escándalos: la venta de las indulgencias, la batalla por el poder temporal, obispos que eran príncipes territoriales o gobernadores de la Iglesia, etc. Pero, los límites de su búsqueda, para muchos, están siempre demasiado ligados al “yo” que busca, y no se abre suficientemente al “nosotros”, que es la Iglesia.

Una vez aclarada la cuestión de la justificación, para la que hay vías de solución abiertas, prosiguió Martínez Camino, quedan las cuestiones relativas al ministerio ordenado, a la jerarquía de la Iglesia, a la estructura de la Iglesia, porque el fondo del problema sigue siendo eclesiológico: la presencia de la palabra de Dios en el mundo, la sucesión apostólica, el ministerio episcopal. Palabra y testigo van juntos, no hay palabra sin testigo, destacó el orador. Y quedan pendientes los símbolos de la fe y el Credo, que originan divergencias entre ambas iglesias.

El restablecimiento de la plena comunión ha de ser un objetivo fundamental para quienes deseamos ser testigos del Dios de la misericordia, aseguró Martínez Camino. Dos cosas estamos ya haciendo en común: la celebración de los 500 años conjuntamente y la fe en el Dios vivo. “Podemos ir a peor también, pero tenemos que guardar lo que tenemos en común”, y no olvidar que el ecumenismo inició su camino a raíz de la persecución nazi contra católicos y luteranos por igual.

Justo y pecador

Para Gelabert, el objetivo de esta conmemoración de los 500 años de la Reforma no pretende mirar al pasado, sino comprender el presente. A partir de la declaración conjunta sobre la justificación o salvación, el acuerdo es total en que Dios nos justifica, pero sigue habiendo diferencias. Lutero dice que el pecador justificado es, a la vez, justo y pecador. Para Trento y la Iglesia católica, el pecador justificado deja de ser pecador y es totalmente justo. Según Lutero, en la persona justificada sigue habiendo una oposición a Dios, lo que es en sí un verdadero pecado, incompatible con la teología católica. Sin embargo, los luteranos afirman que, a pesar del pecado, el cristiano ya no está separado de Dios.

¿Qué clase de pecado es este que produce oposición, pero no separa de Dios?, se preguntó el ponente. Una explicación sería que esta doctrina nos recuerda el peligro continuo que viene del poder del pecado y su acción en el cristiano. La concupiscencia permanece en el bautizado. Para Trento eso es algo natural; pero, para Lutero es la expresión de la permanente aversión del hombre contra Dios, el egoísmo que siempre nos acompaña y se traduce en rebeldía. De ahí que el justificado, en el que siempre hay concupiscencia, siga siendo pecador.

Desde la perspectiva luterana, se puede considerar que el deseo, la concupiscencia, puede ser la apertura por la que el pecado ataca. Si se acepta así, la concupiscencia deja de ser pecado para ser punto de apertura del que se aprovecha el pecado. “Estamos ante dos comprensiones de la concupiscencia que conducen a conclusiones teológicas distintas. Para los católicos es una realidad natural, y para los luteranos una realidad personal. Si es natural no puede ser pecado, pero si es personal puede serlo”, añadió.

Para superar la polémica, puede ser útil, según Gelabert, situar las posiciones de unos y otros en su propio contexto teológico, doctrinal e histórico. Leídas por sí mismas, las posiciones parecen incompatibles. “Pero si tenemos en cuenta el diferente uso lingüístico y el distinto contexto espiritual, si distinguimos entre lo que se dice y lo que se quiere decir, y además situamos las fórmulas dentro del amplio conjunto en el que se encuentran, comparten una gama de matices y precisiones que la sola y estricta fórmula no puede expresar, y que permiten un serio acercamiento entre unos y otros y hacen posible una coincidencia de lo que se quiere decir, aunque sea dicho de distintos modos”, agregó.

Una Iglesia santa y pecadora

El propio Lutero reconoce que, cuando nos reconocemos pecadores, estamos dando un paso hacia Cristo. “El sentimiento que tiene el pecador habría que entenderlo, según mi lectura de Lutero, y la de otros, en un sentido dinámico, como un estado de marcha, cuyo resultado es la penitencia. Si la fórmula tiene un sentido penitencial, debe entenderse existencialmente y no ontológicamente. También Trento utiliza el lenguaje penitencial, que se encuentra en unos y otros”, precisó Gelabert.

Si no vamos más allá de las oposiciones, no hay modo de superarlas, manifestó, antes de decir que, probablemente, Tomás de Aquino aceptaría una fórmula del tipo: simul peccator et fidelis, el creyente puede ser a la vez pecador y justo, porque el único pecado que aparta al hombre totalmente de Dios es la apostasía. Por lo tanto, el creyente es también un pecador, simul iustus et peccator. Una aplicación de esta fórmula sería que la Iglesia es santa y pecadora. El mismo Vaticano II declara que la Iglesia encierra en su seno pecadores y que, siendo al mismo tiempo santa y necesitada de purificación, avanza por la senda de la penitencia y de la renovación.

Si lo que católicos y luteranos conmemoramos ahora es una pelea, no hay nada que celebrar, advirtió Gelabert. Pero, si la pelea puede superarse y buscamos comprender las circunstancias históricas y doctrinales que la propiciaron para aprender a no repetirla y encontrar caminos para resolverla, entonces es bueno recordar el pasado y celebrar los caminos que han conducido a un presente de concordia y colaboración.

En el coloquio, Gelabert mantuvo que hay una cierta influencia del catolicismo sobre el luteranismo, en el que hay divisiones respecto al acercamiento a Roma; mientras que Martínez Camino, tras destacar que el luteranismo no es un conjunto homogéneo, se mostró partidario de una mayor influencia del luteranismo sobre el catolicismo.

 

La corrupción se convierte en problema con la crisis, pero no cuando había crecimiento y estabilidad económica

· Francisco Llera, Joaquín Abellán y Fernando Vallespín analizaron la situación de nuestra democracia en el Foro de Encuentro “Qué esperan los españoles de los poderes públicos”, organizado por la Real Academia de Doctores de España
· Llera: Durante los primeros treintas años de democracia “éramos suficientemente cínicos para considerar la corrupción como un precio que había que pagar por el crecimiento, el desarrollo y la estabilidad; hasta que nos la hicieron pagar a escote con la crisis económica. Fue entonces cuando la corrupción se ha convertido en un problema, no porque no existiese o no la viésemos antes, sino porque no nos inquietaba tanto”
· Abellán: “Los ciudadanos pueden querer cosas que no deben ser queribles o deseadas, porque pueden responder a intereses particulares que no se corresponden con los generales”.
· Vallespín: “Bajo un gobierno democrático el ciudadano espera que quien gestiona su vida le dé lo que le ha prometido; de lo contrario, se rompe la confianza y estamos casi a un paso de la crisis de legitimidad, como proponen los populismos. Luego, el problema está dentro del mismo sistema”

MADRID (03-05-17).- Durante los primeros treinta años de democracia, tras una transición consensuada, rendimientos institucionales, sociales y económicos e indicadores de satisfacción incomparables con otras democracias, “éramos suficientemente cínicos para considerar la corrupción como un precio que había que pagar por el crecimiento, el desarrollo y la estabilidad; hasta que nos la hicieron pagar a escote con la crisis económica. Fue entonces cuando la corrupción se ha convertido en un problema, no porque no existiese o no la viésemos antes, sino porque no nos inquietaba tanto”, manifestó Francisco Llera Ramo, catedrático de Ciencia Política en la Universidad del País Vasco, donde fundó y dirige el Euskobarómetro desde 1995, durante el Foro de Encuentro “Qué esperan los ciudadanos de los poderes públicos”, organizado por la Real Academia de Doctores de España (RADE).

La sociedad española vivió los primeros treinta años de ese periodo con expectativas positivas, despreocupada de la gestión política y exceso de confianza. Pero, en el último decenio coinciden un cambio generacional y una crisis económica que nos obliga a replantearnos cosas olvidadas en aquella borrachera de euforia, crecimiento, mejora y modernización indiscutible, agregó Llera, exdirector del Instituto Vasco de Estadística y experto investigador en opinión pública, actitudes políticas y cultura política, y autor de un estudio sobre las causas de la desafección política en España.

En 2004, la satisfacción con la democracia en España era del 70 por ciento, agregó. Solamente nos ganaban Dinamarca, Luxemburgo y Finlandia. Y todavía en 2007 los españoles éramos los más europeístas. Esa corriente ha cambiado de forma radical, ya no somos tan europeístas; pero, a pesar de la crítica y la desconfianza, no vemos alternativa a la democracia liberal, con un 8,5 sobre diez por encima del promedio europeo. No obstante, al evaluar nuestro modelo de democracia, estamos entre los más críticos, con un 5,5, por debajo del 6,3 europeo.

En ese salto de la satisfacción a la insatisfacción, la ciudadanía ha puesto la lupa en la clase política y, particularmente, en los partidos y algunas instituciones. Somos de los países de la UE con mayor desconfianza institucional, prosiguió Llera. Los problemas económicos han empezado a preocupar menos para poner en su lugar a los políticos y, especialmente, la corrupción, lo que ha agudizado las dificultades de nuestra democracia, entre otras cosas, porque no se abordaron a tiempo reformas y cambios en la rendición de cuentas ante los ciudadanos. Es llamativo, según Llera, que mucho antes de la crisis económica partidos y sindicatos estuvieran entre las instituciones peor valoradas y que generaban mayor desconfianza, y que se demandaran de forma muy mayoritaria reformas en el sistema institucional y la Constitución. Pero la clase política hizo oídos sordos, continuó el ponente.

Desmovilización electoral

Los dos grandes partidos sumaban más del 80 por ciento de los votos hasta 2011, y ahora tienen poco más del 50. Los dos nuevos actores políticos resultan decisivos para el equilibrio, el reparto de poder y las decisiones políticas; aunque solo han arrebatado a los dos grandes un tercio del voto perdido, porque el fenómeno que destaca, por desconocido en España desde la Transición, ha sido una importante desmovilización del electorado. La revolución electoral se ha producido con una participación inferior al 70 por ciento, cuando en la primera etapa del periodo democrático cualquier alternancia de gobierno contaba con un 80 por ciento de participación, dijo Llera.

La inmensa mayoría de los españoles estaba de acuerdo con muchas reivindicaciones del 15-M, como se observa al testarlas en las encuestas. Los encuestados las consideraban necesarias, y simpatizaban con aquel movimiento y sus planteamientos, “aun no conociendo muy bien sus entresijos”, aseveró Llera. Pero, cuando el 15-M se convierte en una expresión política organizada, el voto se distancia de esta opción. Y otro factor relevante hasta 2011, cuando PSOE y PP reunían la máxima concentración del voto, era que los ciudadanos cuestionaban la crispación política generada por la confrontación entre ambos partidos porque repercutía en su vida diaria y sus relaciones personales, y añoraban el consenso de la Transición.

Llera rechazó que los españoles seamos pasivos y poco participativos. “Esta es una verdad a medias. Lo que pasa es que hemos sido muy confiados, y eso ha permitido la consolidación en una etapa muy positiva de la democracia. Pero, la frustración de esa confianza ha generado indignación con la clase política, sobre todo por la corrupción. Éramos suficientemente cínicos para considerar la corrupción como un precio que había que pagar por el crecimiento, el desarrollo y la estabilidad; hasta que nos la hicieron pagar a escote con la crisis económica. Fue entonces cuando la corrupción se ha convertido en un problema, no porque no existiese o no la viésemos antes, sino porque no nos inquietaba tanto”.

Partidos y ciudadanos contra el interés general

Para Joaquín Abellán García, catedrático de Ciencia Política en la Universidad Complutense, secretario de la Revista de Estudios Políticos, y miembro del Grupo de Investigación “Política y sociedad en la Europa del siglo XIX”, y especialista en Max Weber, lo que los ciudadanos deben o no esperar de la política subyace, en parte, en que, desde el siglo XX, entendemos la política como una esfera propia diferente de otras, como la economía, la religión o las bellas artes, con cuyas propuestas entra en tensión la política.

Abellán precisó que la globalización es un reto para el Estado, porque la base nacional que lo legitima pierde peso ante instancias supranacionales o económicas que se imponen a su soberanía, y surgen movimientos de acción colectiva que se presentan como alternativa al Estado representativo, basados en una cultura de valores postmateriales que prende en el mundo occidental que tiene resueltas sus necesidades básicas: pacifismo, comunitarismo, solidaridad, calidad de vida, medioambiente, etc.

Una barrera para que se cumplan expectativas de los ciudadanos deriva de que asuntos políticos de interés general, como infraestructuras o educación, necesitan continuidad en plazos de tiempo más largos que los que permiten permanentes cambios de gobierno. Partidos políticos y agentes sociales, advirtió Abellán, deberían tener en cuenta esta particularidad por encima de sus propios intereses. Por otro lado, la democracia y la mayoría no pueden ignorar el Estado de derecho, las normas básicas plasmadas en la Constitución, que son una limitación de la democracia. De igual modo, la relación entre democracia e igualdad puede llevar a una democracia condescendiente, exigente y regalada al mismo tiempo, que puede sobrecargar la economía del país y el conjunto de la sociedad con las expectativas que generan los partidos en campaña.

La base de la cuestión, para Abellán, está la tensión entre los intereses de los partidos y de los ciudadanos con el interés general, que es el que el Estado debe defender. Si eso ocurre “el sistema democrático y la voluntad popular entran en tensión con el Estado de derecho y con los intereses generales, porque los ciudadanos pueden querer cosas que no deben ser queribles o deseadas, porque pueden responder a intereses particulares que no se corresponden con los generales”.

Crisis de representación

“El problema político de España afecta a la democracia liberal, incapaz de sortear una crisis de representación. Este es un momento populista, la situación idónea para que aparezcan movimientos que pretenden redimir al pueblo de la casta”, afirmó, en su intervención, Fernando Vallespín Oña, catedrático de Ciencia Política y de la Administración en la Universidad Autónoma de Madrid, reconocido experto en teoría política y expresidente del Centro de Investigaciones Sociológicas.

Según Vallespín, esta crisis se basa en que los partidos aparecen ante los ciudadanos como integrantes de una estructura más cercana entre ellos mismos que de la ciudadanía, se benefician de pertenecer al estamento político y comparten intereses de clase política. Por eso se habla de casta. Al constituir un cártel, a pesar de la crispación entre ellos, no ofrecen alternativas; y “si se elige entre las mismas cosas, no se cumple la promesa democrática”.

Se refirió al clientelismo como la especie de acuerdo tácito entre políticos que satisfacen intereses y ciudadanos que les conceden el voto. Pero, cuando llega la crisis económica y el Estado deudor ya no puede seguir pagando las mismas prestaciones, se rompe ese pacto. No obstante, los partidos siguen prometiendo, a sabiendas de que no pueden hacer lo que dicen. “Es cuando se frustran las expectativas, cuando empezamos a tener problemas en los sistemas políticos. Y, cuando se da esta ruptura o debilitamiento de mediación entre sociedad y política, el populismo trata de resolverla haciéndose único representante del pueblo, lo que va en contra de la democracia liberal representativa”, continuó Vallespín.

Otra dimensión del conflicto entre ciudadanos y poderes públicos es la ruptura del “elemento delegativo de la representación”, porque las nuevas tecnologías permiten al representado estar permanentemente presente, lo que rompe la autoridad del político, sistemáticamente vapuleado, no solo por los medios de comunicación, sino por las redes sociales. El sistema democrático no puede sobrevivir sin generar expectativas, concluyó Vallespín: “Bajo un gobierno democrático el ciudadano espera que quien gestiona su vida le dé lo que le ha prometido; de lo contrario, se rompe la confianza y estamos casi a un paso de la crisis de legitimidad, como proponen los populismos. Luego, el problema está dentro del mismo sistema”.

 

La corrupción política no inquietaba tanto en España cuando había crecimiento y estabilidad económica

Durante los primeros treinta años de democracia, tras una transición consensuada, rendimientos institucionales, sociales y económicos e indicadores de satisfacción incomparables con otras democracias y una autoestima reconocida como el “milagro español”, la sociedad española era lo suficientemente cínica para considerar la corrupción como un precio que había que tolerar por el crecimiento, el desarrollo y la estabilidad. Pero, cuando ha habido que pagar a escote la crisis económica, la corrupción se ha convertido en un problema, no porque no existiese o no la viésemos antes, sino porque no nos inquietaba tanto. Esta es una de las ideas expresada en el Foro de Encuentro “Qué esperan los ciudadanos de los poderes públicos”, organizado por la Real Academia de Doctores de España (RADE), que presidió el titular de la entidad, Jesús Álvarez Fernández-Represa, y moderó Antonio Jiménez Blanco, catedrático de Derecho Administrativo, de la Universidad Politécnica de Madrid, y Académico de Número de la corporación.

Lo que los ciudadanos deben o no esperar de la política subyace, en parte, en que, desde el siglo XX, entendemos la política como una esfera propia diferente de otras, como la economía, la religión o las bellas artes, con cuyas propuestas entra en tensión la política, apuntó Joaquín Abellán García, catedrático de Ciencia Política en la Universidad Complutense, secretario de la Revista de Estudios Políticos, y miembro del Grupo de Investigación “Política y sociedad en la Europa del siglo XIX”; que ha dedicado la mayor parte su tarea investigadora a la traducción de las obras de Max Weber, y a la tolerancia religiosa a lo largo de la historia.

Abellán precisó que, tras la Segunda Guerra Mundial, el Estado parece reinventarse. La globalización le plantea un reto porque la base nacional que lo legitima pierde peso ante instancias supranacionales o económicas que se imponen a su soberanía. Surgen movimientos de acción colectiva que se presentan como alternativa al Estado representativo, basados en una cultura de valores postmateriales que prende en el mundo occidental que tiene resueltas sus necesidades básicas: pacifismo, comunitarismo, solidaridad, calidad de vida, medioambiente, etc.

Una dificultad para que se cumplan expectativas de los ciudadanos deriva de que asuntos políticos de interés general, como infraestructuras o educación, necesitan continuidad en plazos de tiempo más largos que los que permiten continuos cambios de gobierno. Partidos políticos y agentes sociales, advirtió Abellán, deberían tener en cuenta esta particularidad por encima de sus propios intereses. Por otro lado, la democracia y la mayoría no pueden ignorar el Estado de derecho, las normas básicas plasmadas en la Constitución, que son una limitación de la democracia. De igual modo, la relación entre democracia e igualdad puede llevar a una democracia condescendiente, exigente y regalada al mismo tiempo, que puede sobrecargar la economía del país y el conjunto de la sociedad con las expectativas que generan los partidos en campaña electoral. El interés de los partidos por conseguir votos y la posibilidad de cumplir sus promesas, a veces entran en colisión, subrayó el ponente. Si los partidos se oligopolizan y se blindan cuando están en el poder, con un clientelismo programado y dirigido, pueden frenar la transparencia y la protección contra el abuso de poder que asegura el sistema democrático.

La base de la cuestión, para Abellán, está la tensión entre los intereses de los partidos y de los ciudadanos con el interés general, que es el que el Estado debe defender. Si eso ocurre “el sistema democrático y la voluntad popular entran en tensión con el Estado de derecho y con los intereses generales, porque los ciudadanos pueden querer cosas que no deben ser queribles o deseadas, porque pueden responder a intereses particulares que no se corresponden con los generales”.

Crisis de representación

Para Fernando Vallespín Oña, catedrático de Ciencia Política y de la Administración en la Universidad Autónoma de Madrid, reconocido experto en teoría política, expresidente del Centro de Investigaciones Sociológicas, autor de artículos académicos y capítulos de libros y colaborador en medios de comunicación, el problema afecta a la democracia liberal, incapaz de sortear una crisis de representación. “Este es un momento populista, la situación idónea para que aparezcan movimientos que pretenden redimir al pueblo de la casta”, afirmó.

Según Vallespín, esta crisis se fundamenta en que los partidos aparecen ante los ciudadanos como integrantes de una estructura más cercana entre ellos mismos que de la ciudadanía, se benefician de pertenecer al estamento político y comparten intereses de clase política. Por eso se habla de casta. Al constituir un cártel, a pesar de la crispación entre ellos, no ofrecen alternativas; y “si se elige entre las mismas cosas, no se cumple la promesa democrática”.

Se refirió al clientelismo como la especie de acuerdo tácito entre políticos que satisfacen intereses y ciudadanos que les conceden el voto. Pero, cuando llega la crisis económica y el Estado deudor ya no puede seguir pagando las mismas prestaciones, se rompe ese pacto. No obstante, los partidos siguen prometiendo, a sabiendas de que no pueden hacer lo que dicen. “Es cuando se frustran las expectativas cuando empezamos a tener problemas en los sistemas políticos. Y, cuando se da esta ruptura o debilitamiento de mediación entre sociedad y política, el populismo trata de resolverla haciéndose único representante del pueblo, lo que va en contra de la democracia liberal representativa”, continuó Vallespín.

Otra dimensión del conflicto entre ciudadanos y poderes públicos es la ruptura del “elemento delegativo de la representación”, porque las nuevas tecnologías permiten al representado estar permanentemente presente, lo que rompe la autoridad del político, sistemáticamente vapuleado, no solo por los medios de comunicación, sino por las redes sociales. El sistema democrático no puede sobrevivir sin generar expectativas, concluyó Vallespín: “Bajo un gobierno democrático el ciudadano espera que quien gestiona su vida le dé lo que le ha prometido; de lo contrario, se rompe la confianza y estamos casi a un paso de la crisis de legitimidad, como proponen los populismos. Luego, el problema está dentro del mismo sistema”.

De confiados a insatisfechos

Tras una transición consensuada, rendimientos institucionales, sociales y económicos e indicadores de satisfacción incomparables con otras democracias y una autoestima reconocida como el “milagro español”, la sociedad española vivió los primeros treinta años de ese periodo con expectativas positivas, despreocupada de la gestión política y exceso de confianza. Pero, en el último decenio coinciden un cambio generacional y una crisis económica que nos obliga a replantearnos cosas olvidadas en esa borrachera de euforia, crecimiento, mejora y modernización indiscutible, manifestó Francisco Llera Ramo, catedrático de Ciencia Política en la Universidad del País Vasco, donde fundó y dirige el Euskobarómetro desde 1995. Exdirector del Instituto Vasco de Estadística y experto investigador en opinión pública, actitudes políticas y cultura política, es autor de un estudio sobre las causas de la desafección política en España y plantea propuestas para una regeneración democrática.

En 2004, la satisfacción con la democracia en España era del 70 por ciento, agregó Llera. Solamente nos ganaban Dinamarca, Luxemburgo y Finlandia. Y todavía en 2007 los españoles éramos el país más europeísta de la UE. Esa corriente ha cambiado, posteriormente, de forma radical; ya no somos tan europeístas. A pesar de la crítica y la desconfianza, los españoles no ven alternativa a la democracia liberal, con un 8,5 sobre diez por encima del promedio europeo. Pero, al evaluar nuestro modelo de democracia, estamos entre los más críticos, con un 5,5, por debajo del 6,3 europeo.

En ese salto de la satisfacción a la insatisfacción, la ciudadanía ha puesto la lupa en la clase política y, particularmente, en los partidos y algunas instituciones. Somos de los países de la UE con mayor desconfianza institucional, prosiguió Llera. Los problemas económicos han empezado a preocupar menos, para poner en su lugar a los políticos y, especialmente, la corrupción, lo que ha agudizado las dificultades de nuestra democracia, entre otras cosas, porque no se abordaron a tiempo reformas y cambios en la rendición de cuentas ante los ciudadanos.

Es llamativo, según Llera, que mucho antes de la crisis económica partidos y sindicatos estuvieran entre las instituciones peor valoradas y que generaban mayor desconfianza, y que se demandaran de forma muy mayoritaria reformas en el sistema institucional y la Constitución. Pero la clase política hizo oídos sordos, continuó el ponente. Los dos grandes partidos sumaban más del 80 por ciento de los votos hasta 2011, y ahora se han quedado con poco más del 50. Los dos nuevos actores que han irrumpido en el escenario político resultan decisivos para el equilibrio, el reparto de poder y las decisiones políticas; aunque solo han arrebatado a los dos grandes un tercio del voto perdido, porque el fenómeno que destaca, por ser desconocido en España desde la Transición, ha sido una importante desmovilización del electorado. La revolución electoral se ha producido con una participación inferior al 70 por ciento, cuando en la primera etapa del periodo democrático cualquier alternancia de gobierno contaba con un 80 por ciento de participación, dijo Llera.

Cinismo ciudadano y corrupción

La inmensa mayoría de los españoles estaba de acuerdo con muchas reivindicaciones del 15-M, como se observa al testarlas en las encuestas. Los encuestados las consideraban necesarias, y simpatizaban con aquel movimiento y sus planteamientos, “aun no conociendo muy bien sus entresijos”, aseveró Llera. Pero, cuando el 15-M se convierte en una expresión política organizada, el voto se distancia. Otro factor relevante hasta 2011, cuando PSOE y PP reunían la máxima concentración del voto, era que los ciudadanos cuestionaban la crispación política generada por la confrontación entre ambos partidos porque repercutía en su vida diaria y sus relaciones personales, y añoraban el consenso de la Transición.

Llera rechazó la idea de que los españoles somos pasivos y poco participativos. “Esta es una verdad a medias. Lo que pasa es que hemos sido muy confiados, y eso ha permitido la consolidación en una etapa muy positiva de la democracia. Pero, la frustración de esa confianza ha generado indignación con la clase política, sobre todo por la corrupción. Éramos suficientemente cínicos para considerar la corrupción como un precio que había que pagar por el crecimiento, el desarrollo y la estabilidad; hasta que nos la hicieron pagar a escote con la crisis económica. Fue entonces cuando la corrupción se ha convertido en un problema, no porque no existiese o no la viésemos antes, sino porque no nos inquietaba tanto”.

Durante el coloquio, Abellán aseguró que los pactos políticos son manifiestamente necesarios, pero se ideologiza hasta tal punto de que se ve al otro como lo opuesto, se crean estereotipos de verdadero/falso, amigo/enemigo, mientras se ignoran las bases del Estado de derecho y no se acepta a los otros y la realidad. Por su parte, Llera señaló que en España sigue funcionando la ideología. La mitad de los electores tiene clara su opción, incluso antes de una campaña electoral. No hay trasvase de votos de izquierda a derecha, o viceversa, como en otros países europeos, aunque esa tendencia estuvo a punto de romperse con el cambio generacional a partir de 2000, porque los jóvenes no tienen la ideologización que tenemos los mayores, y hay partidos que lo aprovechan para agudizar las diferencias con simplificaciones polarizadas.

La autoexperimentación, un elemento clave en el avance de la ciencia anestesiológica

La autoexperimentación de fármacos y terapias es una constante en el campo de la medicina. La literatura medica recoge un total de 465 autoexperimentos en distintas especialidades entre 1800 y 1999, en una lista en la que la anestesiología ocupa el segundo lugar, con 101 casos, que han continuado hasta nuestros días. Los anestesiólogos han comprobado en sí mismos los efectos y la seguridad de los fármacos y las técnicas anestésicas y, con la confianza en sus conocimientos, su compromiso con los enfermos y sus valores éticos han hecho avanzar la ciencia anestesiológica, afirmó el doctor Fernando Gilsanz Rodríguez, al tomar posesión como Académico Correspondiente de la Sección de Medicina de la Real Academia de Doctores de España (RADE).

El recipiendario, que leyó el discurso de ingreso Auto-experimentación en anestesiología fue presentado por el doctor José Antonio Rodríguez Montes, Académico de Número de la Sección y Bibliotecario de la RADE, en un acto presidido por el titular de la corporación, doctor Jesús Álvarez Fernández-Represa, acompañado por el doctor Emilio de Diego García, Secretario General de la academia.

Inició su intervención el nuevo miembro de la RADE, citando al primer anestesiólogo profesional de la historia, el australiano Rupert Hornabrook, que se administró un anestésico inhalatorio, cloruro de etilo, mientras se hacía una pequeña cirugía. La autoexperimentación ha sido criticada en ocasiones porque no se hacía con las debidas garantías, tanto personales como metodológicas; sin embargo, como señaló Gilsanz, algunos autoexperimentadores han recibido el Premio Nobel por sus trabajos, como William Ramsey, galardonado en 1904 por su investigación con gases inertes, entre otros.

De los autoexperimentadores anteriores a 1846, Gilsanz destacó a sir Humphry Davy, que comprobó en su propia persona los efectos del óxido nitroso. Davy escribió, en 1800, un tratado sobre investigación química y filosófica de este gas, en el que afirma que, cuando le dolían las muelas, lo inhalaba dos o tres veces y se le quitaba el dolor, lo que demostraba que era un anestésico, y se aventuró a asegurar que el óxido nitroso era capaz de abolir el dolor en las intervenciones.

La primera intervención con éter

Del periodo 1846-1870, Gilsanz citó los experimentos de William Thomas Morton con el éter. El 16 de octubre de 1846, en Boston, Morton hizo la primera demostración pública de un anestésico quirúrgico. Un cirujano y un odontólogo administraron éter como anestesia a un paciente con un tumor en la parótida, para intervenirle. Para sorpresa del doctor Warren, que era el cirujano, y de los demás caballeros presentes, el paciente no se encogió ni gritó, aunque durante la operación empezó a mover los miembros y a proferir expresiones extraordinarias. Esos movimientos parecían denotar la existencia de dolor, escribió Morton. Mas, una vez recuperadas las facultades, el operado dijo que no había experimentado dolor, sino la sensación de que le rozaban la región intervenida con un instrumento romo. Hoy los anestesiólogo sabemos, continuó Gilsanz, que aquél fue un éxito relativo, porque hubo movimiento, lo que denota cierto grado de despertar. Lo resaltable, subrayó el recipiendario, es que Morton había probado personalmente el éter en su despacho, y confesó a su mujer que había quedado inconsciente. Morton pasó a la historia, pero no publicó sus experimentos, tarea de la que se encargó el ayudante del doctor Warren.

En el siglo XIX, un ginecólogo escocés, sir James Young Simpson, inhaló varios fluidos volátiles de agradable olor con la esperanza de que pudieran tener las ventajas del éter, sin sus inconvenientes, y acabó descubriendo el más efectivo: el cloroformo. Simpson se puso en contacto con John Snow, otro pionero de la autoexperimentación y de la historia de la medicina. Ambos fueron llamados por la reina Victoria de Inglaterra para que la anestesiaran durante el parto de su octavo hijo, el príncipe Leopoldo, que nació el 7 de abril de 1853. El hecho provocó un editorial de The Lancet, la revista más influyente del país, en el que se criticaba que se hubiera puesto en peligro la vida de la soberana; pero su majestad resolvió la polémica al calificar su anestésico como “adorable cloroformo”. Snow publicó los resultados de sus autoexperimentos realizados de 1845 a 1855 con anestésicos como: éter, cloroformo, nitrato de etilo, bisulfito de carbono, benceno, bromoformo de etilo y dicloroetano.

En España, Casares Rodrigo , catedrático de Química de la Universidad de Santiago de Compostela, comprobó por sí mismo, en febrero de 1847, las propiedades del cloroformo y las comparó con las del éter, que había experimentado diez meses antes.

Del siglo XX, Gilsanz mencionó a Frederick Prescott, director de investigación de la clínica Burruoghs Wellcome, que experimentó con fármacos que actúan sobre la unión neuromuscular y que entrañaban riesgos evidentes. Prescott publicó los trabajos de autoexperimentación y los clínicos que hizo con otros profesores. Describió cómo se administró diez miligramos de curare, que le hizo sentirse muy débil. Podía mover brazos y piernas, pero tenía los músculos faciales y del cuello paralizados. No podía hablar bien, solo alcanzaba a modular palabras sueltas. Veía doble. Pasados quince minutos, el vigor retornó a la musculatura y la fuerza reapareció en sentido inverso al de la paralización. El paso siguiente fue aumentar la dosis a veinte miligramos, con consecuencias un poco más fuertes. Pero, al llegar a los treinta miligramos, “a los dos minutos, tenía la musculatura de la cara, el cuello, los brazos y las piernas completamente paralizados. No podía hablar ni abrir los ojos. Al tercero, se me paralizaron los músculos de la respiración. No me ponía cianótico, pero tenía la sensación de que me estaba ahogando. Sentía que me ahogaba en mi propia saliva, porque, por entonces, no podía tragar ni toser”. El doctor sir Geoffrey Organe, que supervisaba el experimento, le administró oxígeno, pero Prescott seguía ahogándose, por lo que Organe le inyectó un antídoto del curare, neostigmina, que no fue suficiente, y tuvo que seguir asistiéndole con ventilación.

Prescott no fue el único en autoexperimentar con curare, sino que hubo más casos, como el de la anestesióloga Helen Barnes que, por la misma época, dejó que se lo administrasen, lo que le produjo los mismos síntomas de la miastenia gravis, una enfermedad que provoca debilidad muscular extrema.

Autoexperimentación y alto secreto

Otto K. Mayrhofer, considerado el introductor de la anestesia moderna, publicó en 1952 sus autoexperiencias y resultados con otro relajante, la sufilcolina.

Destacó, a continuación, Gilsanz a un anestesista poco conocido del siglo XX: Edgar Alan Pask, que fue ayudante de Macintosh, el primer catedrático de Anestesia de Europa, en Oxford. Al comenzar la II Guerra Mundial se crearon en el Reino Unido centros secretos de experimentación, como el Instituto de Fisiología de la RAF, para estudiar la forma de evitar la muerte a los pilotos en múltiples circunstancias, como, por ejemplo, al saltar en paracaídas a 400 pies de altura, al estar en peligro de ahogarse en el mar, cuál era el mejor chaleco salvavidas para un piloto inconsciente, etc. Macintosh y Pask trabajaron y autoexperimentaron en estas materias con estudios que han sido secretos hasta hace poco.

Pask aprovechó su labor para hacer su tesis doctoral, en la que el doctorando y el paciente eran la misma persona. Aspiró éter, probó distintos métodos de ventilación artificial pulmonar, se le paralizó con curare antes de que esta sustancia se utilizara como anestésico y ensayó gran variedad de chalecos salvavidas y dispositivos de flotación en diferentes condiciones, Indudablemente, añadió Gilsanz, durante estas y otras pruebas sufrió aspiración con daño pulmonar. Pask, al que se recuerda más en los libros de historia que en los de medicina, fue condecorado por el rey Jorge VI con la orden de caballero del imperio británico, y la asociación de anestesistas de Gran Bretaña creó el premio Pask Certificate of Honor.

Antes de finalizar su exposición, Gilsanz citó otros nombres relevantes de la autoexperimentación, como Severinghaus, Griffith, Sadove, Brown o Jones, entre otros, que han seguido haciendo trabajos muy interesantes de autoexperimentación con cada vez mayor seguridad en sus técnicas.

Una fértil carrera dedicada a la anestesiología

Licenciado en Medicina y Cirugía en la Universidad Complutense, en 1973, y doctor cum laude por la misma institución, Fernando Gilsanz se formó como residente en la Clínica Puerta de Hierro, de Madrid, antes de pasar a médico adjunto y jefe de sección del Servicio de Anestesia-Reanimación, del mismo centro. Completó su preparación como investigador clínico en prestigiosos centros del Reino Unido, como el Royal Victory Infirmary y la Universidad de Leeds, dijo el doctor Rodríguez Montes al presentar al recipiendario.

En 1990 obtuvo por oposición la jefatura del Servicio de Anestesia-Reanimación del Hospital Universitario de la Princesa, y en 2001, conseguida plaza en la Universidad Autónoma de Madrid, ganó la jefatura del Servicio de Anestesia-Reanimación del Hospital Universitario la Paz, cargo que ejerce desde entonces. Tras pasar por todo el escalafón docente universitario, en 2007 consiguió la cátedra de Anestesiología-Reanimación y Terapéutica del Dolor en la Autónoma madrileña.

Sus aportaciones pioneras se han publicado en las más destacadas revistas europeas y americanas de su área. Ha sido investigador principal en 22 proyectos de investigación financiados por agencias externas, ha dirigido 114 trabajos de suficiencia investigadora y 40 tesis doctorales. Ha publicado 200 artículos en revistas nacionales y 70 en extranjeras, 120 ponencias y conferencias en congresos y 400 comunicaciones. Ha editado cinco libros y es autor de 60 capítulos en libros y monografías nacionales, así como de siete capítulos en tratados extranjeros.

Ha presidido la Sociedad Madrid-Centro de Anestesiología, Reanimación y Terapéutica del Dolor y la sociedad nacional del mismo nombre, entre otros cargos. Ha representado a España en la Sociedad Europea de Anestesia y la Federación Mundial de Sociedades de Anestesiólogos, y es miembro de la Academia Europea de Anestesiólogos, así como del Examination Committee in Anaesthesia and Intensive Care de dicha academia. Desde 2006 pertenece al European Board of Anaesthesiology, Intensive Care Medicine, Emergency Medicine and Pain Treatment, de la Unión Europea de Médicos Especialistas; y ha dirigido 53 cursos convocados por estas organizaciones.

 

La autoexperimentación, un elemento clave en el avance de la ciencia anestesiológica

· Desde 1800 hasta nuestros días, más de un centenar de anestesiólogos han experimentado en sus propios cuerpos los efectos de sustancias anestésicas, según Fernando Gilsanz Rodríguez, nuevo miembro correspondiente de la Real Academia de Doctores de España
· El primer anestesiólogo profesional de la historia, el australiano Rupert Hornabrook, se administró un anestésico inhalatorio, cloruro de etilo, mientras se hacía una pequeña cirugía
· La primera operación con éter se hizo en 1846, en Boston, después de que el doctor William Thomas Morton probara personalmente sus efectos
· En el siglo XIX, el ginecólogo escocés sir James Young Simpson inhaló varios fluidos volátiles y descubrió el anestésico más efectivo: el cloroformo, que administró a la reina Victoria de Inglaterra durante el parto de su octavo hijo

- Pie de foto.- El nuevo académico correspondiente de la RADE recibe el diploma acreditativo del presidente de la corporación, Jesús Álvarez Fernández-Represa.

MADRID (08-05-17).- La autoexperimentación de fármacos y terapias es una constante en el campo de la medicina y, de forma específica, en el de la anestesiología, como confirman más de cien casos, de los 465 que registra la literatura científica entre 1800 y 1999, que han continuado aumentando hasta nuestros días. Los anestesiólogos han comprobado en sí mismos los efectos y la seguridad de los fármacos y las técnicas anestésicas y, con confianza en sus conocimientos, compromiso con los enfermos y valores éticos han hecho avanzar la ciencia anestesiológica, como afirmó el doctor Fernando Gilsanz Rodríguez, al tomar posesión como académico correspondiente de la Sección de Medicina de la Real Academia de Doctores de España (RADE).

Según el nuevo miembro de la RADE, el primer anestesiólogo profesional de la historia, el australiano Rupert Hornabrook, se administró un anestésico inhalatorio, cloruro de etilo, mientras se hacía una pequeña cirugía. La autoexperimentación ha sido criticada en ocasiones porque no se hacía con las debidas garantías, tanto personales como metodológicas; sin embargo, como señaló Gilsanz, algunos autoexperimentadores han recibido el Premio Nobel por sus trabajos, como William Ramsey, galardonado en 1904 por su investigación con gases inertes, entre otros.

De los autoexperimentadores anteriores a 1846, Gilsanz destacó a sir Humphry Davy, que comprobó en su propia persona los efectos del óxido nitroso. Davy escribió, en 1800, un tratado sobre investigación química y filosófica de este gas, en el que afirma que, cuando le dolían las muelas, lo inhalaba dos o tres veces y se le quitaba el dolor, lo que demostraba que era un anestésico, e, incluso, se aventuró a asegurar que el óxido nitroso era capaz de abolir el dolor en las intervenciones.

La primera intervención con éter

Del periodo 1846-1870, Gilsanz citó los experimentos de William Thomas Morton con el éter. El 16 de octubre de 1846, en Boston, Morton hizo la primera demostración pública de un anestésico quirúrgico. Un cirujano y un odontólogo administraron éter como anestesia a un paciente con un tumor en la parótida, para intervenirle. Para sorpresa del doctor Warren, que era el cirujano, y de los demás caballeros presentes, el paciente no se encogió ni gritó, aunque durante la operación empezó a mover los miembros y a proferir expresiones extraordinarias. Esos movimientos parecían denotar la existencia de dolor, escribió Morton. Mas, una vez recuperadas las facultades, el operado dijo que no había experimentado dolor, sino la sensación de que le rozaban la región intervenida con un instrumento romo. Hoy los anestesiólogo sabemos, continuó Gilsanz, que aquél fue un éxito relativo, porque hubo movimiento, lo que denota cierto grado de despertar. Lo resaltable, subrayó el recipiendario, es que Morton había probado personalmente el éter en su despacho y había confesado a su mujer que había quedado inconsciente. Morton pasó a la historia, pero no publicó sus experimentos, tarea de la que se encargó el ayudante del doctor Warren.

En el siglo XIX, un ginecólogo escocés, sir James Young Simpson, inhaló varios fluidos volátiles de agradable olor con la esperanza de que pudieran tener las ventajas del éter, sin sus inconvenientes, y acabó descubriendo el más efectivo: el cloroformo. Simpson se puso en contacto con John Snow, otro pionero de la autoexperimentación y de la historia de la medicina. Ambos fueron llamados por la reina Victoria de Inglaterra para que la anestesiaran durante el parto de su octavo hijo, el príncipe Leopoldo, que nació el 7 de abril de 1853. El hecho provocó un editorial de The Lancet, la revista más influyente del país, en el que se criticaba que se hubiera puesto en peligro la vida de la soberana; pero su majestad resolvió la polémica al calificar su anestésico de “adorable cloroformo”. Snow publicó los resultados de sus autoexperimentos realizados de 1845 a 1855 con anestésicos como: éter, cloroformo, nitrato de etilo, bisulfito de carbono, benceno, bromoformo de etilo y dicloroetano.

En España, Casares Rodrigo, catedrático de Química de la Universidad de Santiago de Compostela, comprobó por sí mismo, en febrero de 1847, las propiedades del cloroformo y las comparó con las del éter, que había experimentado diez meses antes.

Del siglo XX, Gilsanz mencionó a Frederick Prescott, director de investigación de la clínica Burruoghs Wellcome, que experimentó con fármacos que actúan sobre la unión neuromuscular y que entrañaban riesgos evidentes. Prescott publicó los trabajos de autoexperimentación y los clínicos que hizo con otros profesores. Describió cómo se administró diez miligramos de curare, que le hizo sentirse muy débil. Podía mover brazos y piernas, pero tenía los músculos faciales y del cuello paralizados. No podía hablar bien, solo alcanzaba a modular palabras sueltas. Veía doble. Pasados quince minutos, el vigor retornó a la musculatura y la fuerza reapareció en sentido inverso al de la paralización. El paso siguiente fue aumentar la dosis a veinte miligramos, con consecuencias un poco más fuertes. Pero, al llegar a los treinta miligramos, “a los dos minutos, tenía la musculatura de la cara, el cuello, los brazos y las piernas completamente paralizados. No podía hablar ni abrir los ojos. Al tercero, se me paralizaron los músculos de la respiración. No me ponía cianótico, pero tenía la sensación de que me estaba ahogando. Sentía que me ahogaba en mi propia saliva, porque, por entonces, no podía tragar ni toser”. El doctor sir Geoffrey Organe, que supervisaba el experimento, le administró oxígeno, pero Prescott seguía ahogándose, por lo que Organe le inyectó un antídoto del curare, neostigmina, que no fue suficiente, y tuvo que seguir asistiéndole con ventilación hasta su recuperación total.

Prescott no fue el único en autoexperimentar con curare, sino que hubo más casos, como el de la anestesióloga Helen Barnes que, por la misma época, dejó que se lo administrasen, y sufrió los mismos síntomas de la miastenia gravis, una enfermedad que provoca debilidad muscular extrema.

Autoexperimentación y alto secreto

Otto K. Mayrhofer, considerado el introductor de la anestesia moderna, publicó en 1952 sus autoexperiencias y resultados con otro relajante, la sufilcolina. Destacó, a continuación, Gilsanz a un anestesista poco conocido del siglo XX: Edgar Alan Pask, que fue ayudante de Macintosh, el primer catedrático de Anestesia de Europa, en Oxford. Al comenzar la II Guerra Mundial se crearon en el Reino Unido centros secretos de experimentación, como el Instituto de Fisiología de la Royal Air Force, para estudiar la forma de evitar la muerte a los pilotos en múltiples circunstancias, como, por ejemplo, al saltar en paracaídas a 400 pies de altura, al estar en peligro de ahogarse en el mar, o cuál era el mejor chaleco salvavidas para un piloto inconsciente, etc. Macintosh y Pask trabajaron y autoexperimentaron en estas materias con estudios que han sido secretos hasta hace poco.

Pask aprovechó su labor para hacer su tesis doctoral, en la que el doctorando y el paciente eran la misma persona. Aspiró éter, probó distintos métodos de ventilación artificial pulmonar, se le paralizó con curare antes de que esta sustancia se utilizara como anestésico y ensayó gran variedad de chalecos salvavidas y dispositivos de flotación en diferentes condiciones. Indudablemente, añadió Gilsanz, durante estas y otras pruebas sufrió aspiración con daño pulmonar. Pask, al que se recuerda más en los libros de historia que en los de medicina, fue condecorado por el rey Jorge VI con la orden de caballero del imperio británico, y la asociación de anestesistas de Gran Bretaña creó el premio Pask Certificate of Honor.

Una carrera dedicada a la anestesiología

Desde 2001, Gilsanz ejerce la jefatura del Servicio de Anestesia-Reanimación del Hospital Universitario la Paz; y, en 2007, consiguió la cátedra de Anestesiología-Reanimación y Terapéutica del Dolor en la la Universidad Autónoma de Madrid. Sus aportaciones pioneras se han publicado en las más destacadas revistas europeas y americanas de su área. Ha sido investigador principal en 22 proyectos de investigación financiados por agencias externas, ha dirigido 114 trabajos de suficiencia investigadora y 40 tesis doctorales. Ha publicado 200 artículos en revistas nacionales y 70 en extranjeras, 120 ponencias y conferencias en congresos y 400 comunicaciones. Ha editado cinco libros y es autor de 60 capítulos en libros y monografías nacionales, así como de siete capítulos en tratados extranjeros.

Gilsanz ha representado a España en la Sociedad Europea de Anestesia y la Federación Mundial de Sociedades de Anestesiólogos, y es miembro de la Academia Europea de Anestesiólogos, así como del Examination Committee in Anaesthesia and Intensive Care de dicha academia. Desde 2006 pertenece al European Board of Anaesthesiology, Intensive Care Medicine, Emergency Medicine and Pain Treatment, de la Unión Europea de Médicos Especialistas; y ha dirigido 53 cursos convocados por estas organizaciones.

La Real Academia de Doctores de España convoca sus Premios a la Investigación 2017

· Los galardones están destinados a tesis doctorales calificadas con sobresaliente cum laude entre el 1 de julio de 2016 y el 14 de julio de 2017, ambos inclusive, cuyos autores sean de nacionalidad española
· Los interesados deberán inscribirse a través de la página web de la RADE (radoctores.es), cumplimentando el formulario en el apartado PREMIOS-Inscripción
· El plazo de presentación de las tesis termina el 14 de julio, inclusive, de este año
· Tres de los siete premios convocados cuentan con la colaboración de Alcaliber y Laboratorios Ovejero
· En la edición de 2016, once investigadores de distintas universidades españolas recibieron los siete premios convocados, en algunos casos ex aequo, de las 434 tesis presentadas

MADRID (15-05-17).- La Real Academia de Doctores de España (RADE), con la colaboración de Alcaliber y Laboratorios Ovejero, convoca sus Premios a la Investigación 2017 para tesis doctorales que hayan obtenido la calificación de sobresaliente cum laude y hayan sido defendidas entre el 1 de julio de 2016 y el 14 de julio de 2017, ambos inclusive, cuyos autores sean de nacionalidad española.

En la edición de 2016, once investigadores, seis de ellos mujeres, recibieron, en algunos casos ex aequo, los siete premios convocados por la RADE con los mismos patrocinadores, de las 434 tesis presentadas, 225 más que las 209 del año anterior. De los investigadores galardonados en la pasada edición, tres están doctorados por la Universidad Complutense, dos por la Autónoma de Madrid, y uno, respectivamente, por las universidades de La Laguna, Alcalá, Barcelona, UNED, Extremadura y Sevilla. Un jurado integrado por académicos de la RADE, especialistas en las distintas áreas de conocimiento, se encargaron de realizar el análisis y valoración de los trabajos presentados.

Los ocho premios convocados para la edición de 2017 son los siguientes:

- PREMIO REAL ACADEMIA DE DOCTORES DE ESPAÑA DE HUMANIDADES
Tema: Libre.
Dotación: 1.000 euros.

- PREMIO REAL ACADEMIA DE DOCTORES DE ESPAÑA DE CIENCIAS DE LA VIDA Y DE LA SALUD
Tema: Libre.
Dotación: 1.000 euros.

- PREMIO REAL ACADEMIA DE DOCTORES DE ESPAÑA DE CIENCIAS JURÍDICAS
Tema: Libre.
Dotación: 1.000 euros.

- PREMIO REAL ACADEMIA DE DOCTORES DE ESPAÑA DE CIENCIAS ECONÓMICAS
Tema: Libre.
Dotación: 1.000 euros.

- PREMIO REAL ACADEMIA DE DOCTORES DE ESPAÑA DE CIENCIAS EXPERIMENTALES Y TECNOLÓGICAS
Tema: Libre.
Dotación: 1.000 euros.

- PREMIO JUAN ABELLÓ PASCUAL I
Tema: Libre (Área de Bioquímica).
Dotación: 1.250 euros.

- PREMIO JUAN ABELLÓ PASCUAL II
Tema: Métodos analíticos en Bioquímica.
Dotación: 1.600 euros.

- PREMIO LABORATORIOS OVEJERO
Tema: Libre sobre Microbiología e Inmunología Microbiana.
Dotación: 1.200 euros.

Bases de la convocatoria

I. CONDICIONES DE LOS SOLICITANTES
- Tener nacionalidad española.
- Haber defendido la tesis en el periodo del 1 de julio de 2016 al 14 de julio de 2017, ambos inclusive, y haber obtenido la calificación de sobresaliente cum laude.

II. INSCRIPCIÓN
Cada aspirante podrá presentarse a uno solo de los premios convocados. la tesis estará redactada en español y, si estuviera escrita en otra lengua, deberá adjuntarse un resumen en español. La inscripción en los premios se hará a través de la página web de la academia (www.radoctores.es), cumplimentando el formulario que se encuentra en el apartado PREMIOS-Inscripción.

Además deberá entregarse en la secretaría de la academia la siguiente documentación en papel: un ejemplar de la tesis encuadernado en cualquier formato, currículum vítae en español y resumen en español, si fuera necesario.

La entrega se hará, exclusivamente, de 17:00 a 19:30 horas en la secretaría de la RADE, calle de San Bernardo 49, de Madrid, hasta el 14 de julio del año 2017, inclusive. No se admitirán los envíos que se reciban fuera de ese horario. Tras recibir la documentación referida y comprobar la correcta inscripción, se comunicará por correo electrónico al candidato la confirmación de la inscripción en la convocatoria de premios.

Caso de ser premiado, el aspirante deberá acreditar que reúne las condiciones requeridas para presentarse al correspondiente concurso.

III. JURADO
La concesión de los premios la decidirá un jurado formado por académicos de la institución, cuya resolución es inapelable. Quedan excluidos de la posibilidad de concursar los académicos de esta real corporación. Los académicos que hayan dirigido alguna tesis que se presente a concurso no podrán formar parte del tribunal que la juzgue. Caso de declararse desierto alguno de los premios será convocado nuevamente.

IV. RESOLUCIÓN
La resolución del concurso se comunicará a los interesados, y se hará pública en la sesión solemne de Apertura del Curso 2017-2018, en la que se llevará a cabo la entrega de los premios y diplomas correspondientes. Las tesis premiadas quedarán en propiedad de la academia. Si se publican posteriormente a la concesión del premio, deberán dejar constancia de que han sido galardonadas con los premios de la Real Academia de Doctores de España.

De los no premiados, la academia se reservará el ejemplar en formato digital, quedando el otro a disposición de los autores hasta el mes de diciembre de 2017. A partir de esa fecha se perderá el derecho de recuperación. La participación en estos premios supone la aceptación de estas bases por parte de los candidatos.

Para más información:

Real Academia de Doctores de España
San Bernardo, 49 - 28015 Madrid
Tel: 915319522 Fax: 915240027
Correo: rad@radoctores.es
Horario: Lunes a viernes, de 17:00 a 20:00 h

Julián Garde, experto en biotecnología espermática, nuevo Académico de Número de la RADE

Un nuevo método de inseminación artificial en ciervas con semen de machos que llevaban muertos cuatro días, con una fertilidad al parto del 60 por ciento; la obtención por inseminación artificial del primer ejemplar de una especie de gacela en peligro de extinción empleando semen descongelado; la técnica de sexado de semen congelado e inseminación artificial en ciervos, con tasas de machos nacidos superiores al 93 por ciento, cuando el ratio natural es cercano al 53, o demostrar que los machos de ciervo más fértiles generan una mayor proporción de machos, al contrario que los menos fértiles, son algunas aportaciones del nuevo Académico de Número de la Sección de Veterinaria, de la Real Academia de Doctores de España (RADE), Julián Garde López-Brea, que ha tomado posesión de su plaza con la medalla 60 de la corporación.

El titular de la RADE, Jesús Álvarez Fernández-Represa, acompañado del Secretario de Estado de Educación, Formación Profesional y Universidades, del Ministerio de Educación, Cultura y Deporte, Marcial Marín Hellín, y otros cargos de la corporación, presidió el acto solemne, al que asistieron la Viceconsejera de Educación, Universidades e Investigación, del Gobierno autonómico de Castilla-La Mancha, María Dolores López Sanz, y otras autoridades administrativas y académicas. En nombre de la RADE, el encargado de contestar el discurso de ingreso, Nuevos y antiguos retos de la espermatología veterinaria, fue el doctor Arturo Ramón Anadón Navarro, de la misma sección que el recipiendario.

Biología y tecnología seminal han experimentado una revolución gracias a los avances que ha supuesto la aplicación de técnicas moleculares, afirmó el nuevo académico, “hecho que ha permitido adoptar nuevos enfoques en temas básicos, así como el desarrollo de nuevas biotecnologías”, entre las que citó, como de mayor potencial, la criopreservación y el sexado de espermatozoides, “ambas con aplicaciones de gran alcance para la producción animal en especies de interés económico, la conservación de la biodiversidad y la salud animal y humana”.

El mayor esfuerzo investigador del doctor Garde en los últimos quince años se han centrado en el estudio y aplicación de la biotecnología espermática a la gestión y conservación de especies silvestres de mamífero y, en concreto, del ciervo; con la particularidad de que los hallazgos encontrados durante el estudio de los parámetros espermáticos de las poblaciones naturales de esta especie han tenido una enorme importancia para la identificación de mecanismos reproductivos básicos que no habían sido identificados en especies ganaderas o en la humana.

Técnicas dañosas para el espermatozoide

Algunos resultados del trabajo de Garde han sido fruto de la colaboración de su grupo de investigación en la Universidad de Castilla-La Mancha y otros cuatro equipos nacionales: el de Ecología y Biología Reproductivas, del Museo Nacional de Ciencias Naturales (CSIC), del doctor Roldan; el de Técnicas de Reproducción Asistida de la Universidad de León, del doctor Anel; el de Reproducción Animal de la Universidad de Murcia, del doctor Martínez; y el de Espermatología y Criopreservación del INIA, del doctor Santiago-Moreno.

Refrigeración, congelación, sexado y enriquecimiento de los espermatozoides son algunas técnicas de gran alcance en la conservación de la biodiversidad animal y la producción y mejora genética en especies de interés económico. Pero, apuntó el recipiendario, todas producen daños en los espermatozoides que afectan a sus propiedades y comprometen el proceso reproductivo. Existe, además, gran variedad de biotecnologías reproductivas que emplean espermatozoides, como la obtención y congelación de semen, la inseminación artificial y la fecundación in vitro.

También es posible obtener espermatozoides viables y descendencia viva a partir de animales muertos, señaló, extraídos del epidídimo hasta más de cuatro días después de la muerte, como lo ha demostrado con su equipo, una opción muy ventajosa para conservar material genético de especies muy amenazadas, como el lince ibérico; o para disponer de una buena representación de germoplasma de especies de las que se obtienen muestras procedentes de la actividad cinegética, como el ciervo ibérico.

La congelación del material espermático tiene muchas ventajas y permite el intercambio de material genético entre individuos muy alejados geográficamente, lo que disminuye la consanguinidad en poblaciones fragmentadas de especies en peligro de extinción. Sin embargo, añadió Garde, la criopreservación no es un procedimiento exitoso en todas las especies. En rumiantes es más compleja por sus características bioquímicas y morfológicas, y su uso con inseminación artificial se ha desarrollado en la mayoría de especies domésticas, y menos en silvestres.

Al repasar las diversas técnicas, con sus beneficios e inconvenientes, mencionó el recipiendario que la fecundación in vitro es más ventajosa que otras biotecnologías reproductivas, porque, entre otras cosas, permite la fecundación de gametos congelados. Esta técnica está bastante desarrollada en bovino, pero tiene un progreso más lento en el resto de especies domésticas y es muy poco satisfactorio en la equina.

Incógnitas resueltas

Estudiar poblaciones naturales de ciervo ha permitido a Garde y su equipo dar respuesta a algunas incógnitas, que han contribuido a un mejor conocimiento de algunos mecanismos de espermatología básica desconocidos hasta el momento, manifestó el orador, como la determinación de las características espermáticas determinantes de la fertilidad masculina; lo que no fue posible en otros estudios, ni con animales domésticos ni con pacientes de clínicas de reproducción asistida, probablemente porque no tienen el grado de variabilidad encontrado en las poblaciones naturales. En sus investigaciones, Garde y su equipo comprobaron grandes diferencias de fertilidad entre los venados muestreados, del 75 a un 20 por ciento. El análisis conjunto de las tasas de fertilidad y de los datos de calidad espermática de los venados estudiados reveló que los machos más fértiles presentaban espermatozoides más rápidos y con menores porcentajes de anomalías morfológicas, lo que evidenció que la fertilidad de los machos depende fundamentalmente de dos características de sus espermatozoides: la velocidad a la que nadan y la tasa de integridad morfológica. Este descubrimiento se publicó en la revista Science, conjuntamente con el grupo del doctor Roldán.

Estudios anteriores habían demostrado que el tamaño de la cuerna está relacionado con el número de descendientes de un macho. Pero Garde planteó una nueva hipótesis: que la función principal de los caracteres sexuales secundarios es señalizar la fertilidad del macho. Los resultados indicaron que los machos con cuernas de mayor tamaño y complejidad tenían testículos más grandes en relación al volumen corporal y espermatozoides que nadan a mayor velocidad. De lo que se concluye que la información que transmite la cuerna podría servir para que las hembras “elijan” aparearse con los machos más fértiles; aunque queda por resolver cómo llevan a cabo esta selección. Esta evidencia pone de manifiesto, según Garde, que la relación entre tamaño de cuerna y número de crías podría no deberse exclusivamente a la capacidad de los machos con cuernas más grandes para ganar las peleas, sino también a que son más fértiles y, posiblemente, más pretendidos por las hembras.

Utilizando inseminación artificial, Garde y su equipo han demostrado también que los machos de ciervo más fértiles generan una proporción significativamente mayor de machos en su descendencia, mientras que los menos fértiles producen una mayor proporción de hembras, sin que se sepa qué mecanismos permiten a los machos sesgar la proporción de crías hacia un sexo determinado.

Para resolver los problemas que plantean los procesos tecnológicos aplicados al semen, y que la espermatología afronte con éxito los retos que le presenta el siglo XXI, el nuevo académico de la RADE propuso una nueva línea de investigación para desarrollar una metodología innovadora que identifique donde residen las diferencias en congelabilidad y/o fertilidad entre individuos de una misma especie, a partir de la hipótesis de que las diferencias entre individuos “buenos” y “malos congeladores” de semen, podría radicar en los ARN (ácidos ribonucleicos) de sus espermatozoides. “Empleando microarrays, utilizando ARNm (ARN mensajero) espermático, combinado con estudios de proteómica, dentro del marco de este nuevo enfoque, perseguimos profundizar en el conocimiento de la influencia del factor individual sobre la resistencia de los espermatozoides a la congelación. Con estos estudios de genómica de ARNm espermático pretendemos identificar donde residen las diferencias metabólicas y funcionales entre espermatozoides de machos con distinto fenotipo (congelabilidad espermática)”, agregó. Así se podrán mejorar los protocolos de congelación espermática con una base fisiológica y no basados solamente en el método de ensayo/error, utilizado hasta ahora. Esta investigación se hará con semen de ovino, añadió, por las grandes diferencias individuales en congelabilidad que presenta, y porque la mayor parte de razas con las que se puede trabajar se han seleccionado por la producción de leche y no por parámetros de fertilidad.

Investigador prolífico

Nacido en Madrid, en 1966, Julián Garde López-Brea es catedrático de la Escuela Técnica Superior de Ingenieros Agrónomos y de Montes, de la Universidad de Castilla-La Mancha, de la que es Vicerrector de Investigación y Política Científica, además de miembro de número de la Real Academia de Ciencias Veterinarias de España, desde 2006. Se licenció en Veterinaria, en 1989, en la Complutense, donde se doctoró en 1993. Ha impartido también docencia en la Facultad de Farmacia de Albacete y, de 2003 a 2004, ocupó la dirección del Instituto de Investigación en Recursos Cinegéticos, después de haber ejercido como Vicedirector desde 1999. Desarrolló su tesis doctoral, Congelación de semen en la especie ovina: Características biológicas de las dosis descongeladas, en el Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (INIA). Ha sido profesor invitado en las universidades argentinas Nacional de Comahue y de la Pampa.

Adquirió experiencia en biología molecular y capacitación espermática en centros nacionales e internacionales, como el Babraham Institute (Reino Unido). En 1999, fundó el laboratorio de biología de la reproducción de la Universidad de Castilla-La Mancha, y es responsable del área de reproducción del grupo de investigación en la materia. Desde 1999 es también investigador del Instituto de Investigación en Recursos Cinegéticos, centro conjunto de la universidad, el CSIC y la Junta de Comunidades de Castilla-La Mancha.

Es miembro de la Society for the Study of Reproduction y de la American Society of Andrology. Tiene el Premio Joven Investigador “Luisa Sigea de Velasco” (2001). Ha sido vocal asesor del Comité de Tecnologías Mecánicas y de la Producción, de la Comisión Nacional Evaluadora de la Actividad Investigadora en 2011 y 2012, que presidió en 2013, y vocal del área de ganadería de la Agencia Nacional de Evaluación y Prospectiva (ANEP) de 2006 a 2009. Cuenta con cuatro sexenios de investigación y es autor de más de 125 publicaciones en revistas internacionales recogidas en el Science Citation Index, y de 25 capítulos en libros. Ha presentado más de 190 contribuciones a congresos nacionales e internacionales, e impartido más de ochenta conferencias y cursos. Ha tutorizado a nueve estudiantes en programas internacionales con Venezuela, Perú, Argentina, Argelia y Alemania. Ha dirigido catorce tesis doctorales y dieciséis proyectos fin de carrera sobre oveja de raza manchega, muflón y ciervos. Ha sido investigador principal en veinticuatro proyectos de investigación de financiación pública europeos, nacionales y regionales, y ha logrado dieciséis contratos de I+D competitivos cofinanciados con empresas privadas, CDTI y Fondo Tecnológico.

Mientras la energía renovable no mejore su almacenamiento, el gas natural será el principal generador de electricidad

En los próximos años, generar energía eléctrica seguirá siendo el principal destino del gas natural, cuya modalidad licuada (GNL) será la de mayor crecimiento porcentual, hasta que existan sistemas de almacenamiento de energía renovable competitivos, por su menor efecto contaminante en forma de dióxido de carbono, dióxido de azufre, óxidos de nitrógeno y partículas de carbón y otros derivados del petróleo, manifestó Manuel Nofuentes Caballero en su discurso de toma de posesión como Académico Correspondiente de la Sección de Ingeniería, de la Real Academia de Doctores de España (RADE), durante un acto presidido por el titular de la corporación, Jesús Álvarez Fernández-Represa, acompañado del Secretario General, Emilio de Diego García, y la Académica Correspondiente de la Sección Ciencias Experimentales, María del Carmen Clemente. José Luis Díaz Fernández, Académico de Número de la misma sección que el recipiendario, se encargó de su presentación.

Doctor ingeniero de Minas y Energía por la Universidad Politécnica de Madrid, Nofuentes ha ejercido su labor profesional durante más de veinte años en las principales empresas del sector energético mundial, como Iberdrola, ENEL y E.ON y, en la actualidad, es Director de la División de Gas de Villar Mir Energía. Tras explicar que el gas natural (GN) es un combustible fósil compuesto por hidrocarburos procedentes de materia orgánica, principalmente metano, expuso las diferencias entre un yacimiento convencional, en el que el GN está atrapado en una estructura de roca sedimentaria porosa limitada por una capa de roca impermeable que le impide escapar, y los yacimientos no convencionales, en los que se acumula en capas sedimentarias de baja permeabilidad que lo atrapan.

El GNL, continuó, se consigue enfriando el GN a menos 161 grados centígrados para licuar el metano. Su volumen en líquido se reduce unas 600 veces en relación al estado gaseoso, lo que permite almacenarlo y transportarlo a presión atmosférica normal. Las noticias más antiguas sobre emanaciones de gas se remontan a más de tres mil años en Grecia, India o Persia, entre otras zonas. Su primer aprovechamiento conocido está documentado en China, donde se usó para hervir agua de mar y obtener sal 500 años antes de Cristo. A finales del siglo XVIII se empezó a experimentar el uso de gas de síntesis, obtenido a partir del carbón, para iluminar ciudades como Birmingham (Reino Unido), en 1802, y Baltimore (EE.UU.), en 1816. Los primeros yacimientos de GN se descubrieron en el estado de Nueva York, en los años 20 del XIX, y se fundaron las primeras empresas gasistas. En 1880 se creó la primera red de transporte de gas utilizando sistemas de compresión, y en la segunda mitad del XIX se establecieron los procesos necesarios para licuar todos sus componentes. En 1959 hizo la primera travesía un buque metanero experimental modificado a partir de un carguero, el Methane Pioneer, entre EE.UU. y el Reino Unido; y en 1964 entró en servicio el primer buque netamente metanero, el Methane Princess.

En 1969, los países exportadores eran Argelia, Libia y EE.UU. y los importadores, Italia, Francia, Reino Unido, España y Japón. Las reservas se han incrementado aproximadamente un 20 por ciento en la última década y, aproximadamente, un 60 por ciento en los últimos veinte años. De ellas, Oriente Medio posee un 43 por ciento de las reservas mundiales. A los actuales niveles de producción, hay reservas garantizadas para más de 53 años de consumo, según Nofuentes. EE.UU. es el mayor productor actual, con un 22 por ciento del total, seguido de Rusia, con un 16. En Oriente Medio la producción se concentra en Irán, Qatar, Arabia Saudí y los Emiratos Árabes, con un 15 por ciento entre los cuatro. En Asia-Pacífico los principales productores son China, Indonesia, Malasia y Australia, con un 10 por ciento en conjunto. Y los mayores consumos se encuentran en Asia-Pacífico, América del Norte y Europa.

La revolución del gas no convencional

Desde mediados de los años 2000, la extracción y producción de GN no convencional en los EE.UU. ha supuesto una revolución y ha provocado la relocalización de industria intensiva energética en este país, debido a los menores precios del GN y también de la electricidad, cuyo coste marginal se suele fijar por las centrales de ciclo combinado. El producto final es el mismo que el obtenido de yacimientos convencionales. El desarrollo tecnológico y la explotación de yacimientos no convencionales, iniciado en Estados Unidos a base de fractura hidráulica, se extenderá a otros países en los próximos años. En el futuro, Oriente Medio y China liderarán la producción mundial, afirmó Nofuentes, junto con Estados Unidos, Rusia y Australia, y surgirán nuevos productores en África y América Latina. Solo Europa reducirá su producción. Por su parte, el comercio internacional se expandirá, con un mayor y más rápido crecimiento del GNL que del natural, y un gran desarrollo de las plantas flotantes de GNL.

El mercado global de GNL lo forman hoy veinte exportadores y treinta importadores. Un 41 por ciento del GNL proviene de Oriente Medio, principalmente de Qatar, y un 31 por ciento de las zonas del Pacífico. Pero, en el futuro, los países que liderarán el crecimiento de las exportaciones de GNL serán EE.UU. y Australia. La cadena logística de GN y de GNL, según se transporte en estado gaseoso o líquido, tiene diferentes etapas. Pero, en la actualidad, según Nofuentes, las tecnologías flotantes de regasificación y licuefacción de GNL se desarrollan rápidamente y tendrán una importante expansión en los próximos años, por sus ventajas frente a las plantas terrestre, como menos tiempo de construcción, menor inversión y costes y mayor flexibilidad operativa. La primera planta de regasificación flotante entró en servicio en 2007, y hay once en operación. Su desventaja es la limitada capacidad de almacenamiento y regasificación. Varios países emergentes han confiado en esta tecnología: Argentina, Brasil, Israel o Pakistán.

La flota mundial de metaneros cuenta con cuatrocientos buques y hay ciento cuarenta en construcción, principalmente en Japón y Corea del Sur. La mayoría de los metaneros están ligados a proyectos de licuefacción concretos, con pólizas de fletamento a largo plazo (10-15 años). No obstante, un 5 por ciento se construyen con fines especulativos destinados al mercado spot, con precios muy volátiles ligados a los mismos parámetros que el gas. Las plantas de regasificación y licuefacción del tipo Small Scale están diseñadas para emitir un millón de toneladas anuales con buques metaneros de menos de 30.000 metros cúbicos de GNL. Suelen estar asociadas a puntos de consumo donde no se puede llegar con tubería, o en los que la geografía o la demanda no justifica una planta de regasificación convencional de mayores dimensiones. Su mayor crecimiento futuro se espera en China. El aumento de la demanda y los avances tecnológicos han hecho económicamente viables yacimientos en zonas remotas y hostiles, hasta ahora impensables, como el Yamal LNG en el Ártico, uno de los proyectos más desafiantes que existen, que puede ser una de las zonas con mayor crecimiento en los próximos 20 años.

Actividad intensiva en capital

La producción, transporte, licuefacción y regasificación de gas son actividades intensivas en capital, apuntó Nofuentes. Los productores no invierten sin contar con garantías de venta a largo plazo. Por eso, la contratación de GN y GNL ha estado dominada históricamente por contratos de largo plazo (15-25 años), con posibilidad de prórroga y cláusulas de revisión de precios. Hasta principios del siglo XXI los precios estuvieron indexados al petróleo u otros productos petrolíferos; pero con el desarrollo de los mercados organizados de gas en EE.UU. y Europa aparecieron las indexaciones a índices de gas. Por otro lado, prosiguió Nofuentes, los volúmenes spot de GNL funcionan al margen de los contratos de largo plazo y las entregas se hacen en el año o en los meses siguientes al cierre de las operaciones, a través de subastas, brokers y, principalmente, negociaciones bilaterales en puntas de demanda o excesos de oferta, siempre en un mercado muy volátil.

Nofuentes definió un hub como una localización geográfica dentro de un sistema gasista en la que se puede transferir la propiedad legal de gas, spot o forward, entre diferentes agentes del mercado con gestiones bilaterales o a través de broker. En general, en los hubs se negocia para ajustar la flexibilidad de oferta o demanda, con variaciones a corto plazo, para el balance de gas o para el trading especulativo. El GN, que originalmente era una materia prima energética regional, se ha globalizado en las últimas décadas gracias, en gran medida, al desarrollo de los mercados de GNL, una tendencia que se potenciará en los próximos años con un mayor crecimiento porcentual en las exportaciones de GNL sobre el GN, afirmó el nuevo Académico Correspondiente.

El incremento de exportaciones de GNL desde EE.UU., con volúmenes flexibles y precios indexados al Henry Hub de este país, hará que este índice aumente su influencia en los precios, no solo americanos, sino también europeos y asiáticos. Junto con Australia, Estados Unidos promoverá un mayor desarrollo del mercado spot de GNL, que redundará en la seguridad de suministro y limitará los efectos de factores geopolíticos en los precios del gas. La demanda asiática, agregó, continuará teniendo un papel muy relevante. Además de Japón y Corea del Sur, India y, principalmente, China aportarán gran parte del crecimiento.

La aparición de nuevas demandas en la costa occidental africana y la irrupción de nuevas producciones off-shore en las costas de Mozambique y Tanzania, actualmente en exploración, abren importantes incógnitas sobre su repercusión en el mercado global. Finalmente, los avances tecnológicos y la expansión de las plantas de licuefacción y regasificación flotantes, los desarrollos de proyectos de Small Scale y el gas destinado a bunker de buques tendrán una considerable influencia en el futuro del GNL a escala mundial, concluyó Nofuentes.

Profesional de la empresa y docente

Además de doctor en Minas y Energía, Manuel Nofuentes Caballero, es máster en Dirección de Empresas por la IE Business School, graduado en Dirección General por el IESE y diplomado en Economía Industrial por la Universidad Carlos III. Es miembro de diversas asociaciones españolas e internacionales del ámbito de la energía y ha presidido el Comité de Agentes del Mercado Gasista Ibérico, dijo el doctor Díaz Fernández.

Es también profesor asociado en la ICADE Business School y la Universidad Camilo José Cela, donde imparte asignaturas relacionadas con la estructura energética mundial, el aprovisionamiento y gestión de combustibles fósiles y la logística marítima. Es autor de varios artículos sobre historia social y política de la Baja Edad Media publicados en revistas especializadas y en un libro colectivo sobre la frontera castellano-granadina en el siglo XV.

O’Donnell y su tiempo, una evocación histórica que trae ecos y reflexiones sobre el presente

“El deterioro de las instituciones, la falta de legitimación por no cumplir su función, la ausencia de estructura que comunique a la sociedad con el poder acaba dando malos resultados, con episodios de populismo recurrentes y con desenlaces no deseables cuando menos se espera”. Con esta frase concluyó el doctor Emilio de Diego García, Secretario General de la Real Academia de Doctores de España (RADE), su conferencia sobre “España ayer y hoy: D. Leopoldo O´Donnell y su tiempo (en el 150 aniversario de su fallecimiento)”, en la que actuó como presentador el doctor José Antonio Rodríguez Montes, Bibliotecario de la corporación.

Hablar de Leopoldo O’Donnell y Joris, conde de Lucena y duque de Tetuán, obliga a hacer referencia al reinado del Isabel II, “en el que no pocos elementos evocarán algún eco del presente en ese ejercicio que es la historia, que es el pasado operativo sobre el presente. La memoria es la construcción emotiva que tiende más a dividir que a unir, por la propia naturaleza del recuerdo de cada uno; mientras que la historia debería de tender a unir, pero hoy está bastante lejos de un planteamiento verdaderamente científico”, apuntó el orador al iniciar su disertación.

De Diego aportó algunos datos para describir la España de mediados del XIX: poco más de quince millones y medio de habitantes, esperanza media de vida de 29 años, 66 por ciento de los trabajaban en el sector primario, de ellos, el 54 por ciento (4,3 millones), jornaleros. El 75 por ciento de la población era analfabeta y el PIB per cápita estaba en 7.136 pesetas constantes de 1958, que serían hoy quince veces más. Era un país en bancarrota que no había puesto orden en las finanzas públicas desde la Guerra de la Independencia, continuó De Diego, a pesar de los intentos de Bravo Murillo para arreglar la deuda. España era insolvente y sus títulos dejaron de cotizarse en las bolsas extranjeras.

Para Galdós, dijo el ponente al entrar de lleno en el personaje de la sesión, O’Donnell fue una época, por su identificación entre la sociedad y un individuo de esos que acotan muchedumbres. O’Donnell hizo hizo una brillante carrera militar iniciada con la guerra civil carlista, de la que España “salió sin ninguna transición tras el abrazo de Vergara. Aunque parece que el régimen liberal se asienta, hay un rebrote de la guerra a la guerra, y no de la guerra a la paz, porque son las propias facciones liberales las que se enfrentan en una lucha por el poder que seguirá a lo largo del siguiente cuarto de siglo”, agregó el conferenciante. Una lucha por el poder que comienza con el cesarismo de Espartero, a pesar de que había acatado la Constitución y la regencia de María Cristina. Con Espartero, prosiguió el orador, “llegaba al poder algo reiterado a lo largo del tiempo: el populismo, junto a otros dos males recurrentes: el bandolerismo y militarismo.

Una andadura política cuajada de cargos

O’Donnell figura en la fracasada sublevación contra el regente, que acaba siendo derrocado en 1843, con el apoyo de liberales y moderados, con la figura capital de Narváez al frente. Entre 1843 y 1848, O’Donnell fue capitán general de Cuba. El primero que visitó toda la isla y puso proa a los intereses británicos, advirtió De Diego. Volvió a la península en 1850. Después de ser Director General de Infantería, fue destituido por no tener vinculación con el partido moderado y vivió apartado hasta 1854, “cuando empieza su andadura: cuatro veces presidente del Consejo de Ministros, cinco veces ministro de la Guerra, seis veces ministro de Estado, seis veces ministro de Marina, y tres veces ministro de Ultramar, aunque de forma interina” agregó.

El duque de Tetuán se había convertido en cabeza de la oposición, al darse cuenta del peligro al que se conducía el país, con la descomposición del poder, el caos de las finanzas públicas, los escándalos y la corrupción electoral y administrativa. “En 1854, don Leopoldo firmó un manifiesto que demandaba cambiar la situación, legislar contra los escándalos y llegar al poder por otros medios, y no por intereses palatinos y de la camarilla”, señaló De Diego. Pero, la reina y el Gobierno no hicieron caso, cerraron periódicos, desterraron militares y destituyeron magistrados, mientras O’Donnell se escondía en un periódico de Madrid, hasta que al frente de tropas leales se enfrentó a las gubernamentales en la batalla de Vicálvaro, de donde se retiró a Manzanares.

La Revolución de 1854, a la que Cánovas dio contenido con su manifiesto: reformista, regeneradora y moralizante y cuyo orientador profundo era Sanz del Río, introductor del krausismo en España, no se planteaba la cuestión del régimen, pero se cuestionaba a la monarquía, lo que forzó a la reina a publicar su “manifiesto de las equivocaciones”. Fue una revolución castiza, subrayó De Diego, que mantuvo en el poder a los que estaban antes, aunque cambiaron las personas. Una revolución que acabó con vivas y mueras, una violencia controlada y la muerte de algunos alborotadores, como describe Galdós. Entre 1854 y 1856 se desarrolló una extraordinaria obra legislativa que afectó a la economía, la banca o los ferrocarriles. La cuestión del régimen se llegó a votar, pero la ganaron los monárquicos por amplísima mayoría.

Sin embargo, la obra de la revolución no pudo culminarse porque Isabel II destituyó a O’Donnell para poner a Narváez en el poder. Como destacó el ponente, la revolución “sirvió de poco, salvo para ver que podía ser posible un cambio de régimen en España”. Uno de los elementos influyentes que contribuyó al fracaso fue el proyecto desamortizador, que puso a la defensiva a la Iglesia, indicó De Diego.

La Unión Liberal, un partido creado desde arriba

Ante la incapacidad de Narváez para llevar adelante un gobierno eficaz, la reina llamó a O’Donnell, con el objetivo de que buscara un entendimiento que procurase una política práctica de Estado. Y don Leopoldo creó la Unión Liberal, un partido nacido desde arriba para ejercer el poder. El gobierno de O’Donnell duró cinco años, “algo inaudito en aquel momento, porque atrajo a sectores moderados y progresistas, frente al cerrilismo ideológico e intransigente, con una oposición con contenido dentro del Gobierno y las Cortes”, afirmó De Diego. Incluido Juan Prim, entre otros generales.

Reconducidos por O’Donnell, los restos de la revolución, con todo su hastío y frustración, acabaron en un partido operativo, lo que nos lleva a reflexionar sobre la realidad actual. Los intransigentes quedaron fuera. Hasta demócratas y republicanos llegaron a integrarse en la Unión Liberal, e, incluso, algún carlista. Una grey muy compleja que O’Donnell supo pastorear, como manifestó el ponente. La Unión Liberal desarrolló una intensa política interior y una importante labor en política exterior. España había permanecido al margen de todos los acontecimientos internacionales, salvo la intervención en Marruecos. Cada vez era más marginal en el concierto mundial, pero la Unión Liberal atendió aquellas áreas que importaban al país para su futuro inmediato, en la medida de sus posibilidades: afianzó Filipinas al participar en la expedición a Conchinchina, de la mano de Francia; la guerra de África fue una disculpa para desviar tensiones internas y aglutinar el sentimiento nacional, sobre todo en Cataluña; la expedición a México consiguió que se repararan intereses españoles perjudicados, o la intervención en Venezuela por los ataques violentos contra españoles.

A partir de 1863, O’Donnell propuso a la reina que Prim fuera la alternativa de Gobierno, pero palacio lo rechazó. Fracasaron las negociaciones con los progresistas y se rompió con ellos, lo que motivó las conspiraciones que llevaron a la Revolución del 68. La crisis financiera de 1866, que hundió varias entidades, agravó la situación económica, a la que se sumó una fuerte subida del precio del trigo, que provocó un extremo descontento popular. O’Donnell cayó en 1866, mientras el trono se debilitaba, e incluso temblaba por la posición de Prim. Don Leopoldo comprendió que se iba hacia la revolución. Pensó en una abdicación, pero el príncipe Alfonso tenía diez años, y una regencia parecía peligrosa.

Hombre de virtud ejemplar, según su biógrafo más entusiasta, el duque de Tetuán era la antítesis de personajes más viciados: morigerado en su vida privada, sobrio, sencillo y modesto. Murió pobre en Biarritz, donde estaba exiliado, en 1867. En su testamento escribió que, ocupado en el servicio de la reina y de la patria, había tenido abandonados sus intereses, concluyó De Diego.

La coincidencia en no repetir el pasado y lograr la reconciliación nacional hizo posible la Transición

· Ramón Tamames, Fernando Suárez e Ignacio Camuñas analizaron en la Real Academia de Doctores de España el cambio del franquismo a la democracia y los actuales riesgos para la convivencia nacional
· Para Tamames, la Transición terminó al entrar en vigor la Constitución, “aunque algunos la han prolongado hasta el 23-F e, incluso, hasta nuestros días, con la aparición del populismo”
· Según Suárez, mientras que entre Largo Caballero y Calvo Sotelo no debía de haber la menor posibilidad de entendimiento, los dirigentes de la izquierda y de la derecha en los 70 estudiaban en las mismas facultades, se conocían y eran amistosos, además de no estar dispuestos a repetir la historia
· Suárez y Camuñas calificaron de catástrofe la Ley de Memoria Histórica y de error histórico no haberla derogado cuando Rajoy tuvo mayoría para hacerlo
· Para Tamames el problema separatista no viene de la palabra nacionalidad en la Constitución, sino de hechos como la entrega de la enseñanza a las autonomías o que los gobiernos centrales hayan estado en manos de las minorías

- Pie de foto.- Rafael Morales-Arce, Ignacio Camuñas, Fernando Suárez, Jesús Álvarez, Saturnino de la Plaza y Ramón Tamames.


Madrid (29-05-17).- La Transición política fue posible porque sus personajes, además de mantener una cordial relación humana, estaban de acuerdo en no repetir el pasado y en alcanzar la reconciliación nacional, un espíritu que hoy están en peligro por la Ley de Memoria Histórica y porque una parte de la izquierda considera que la oposición democrática vendió su ideología al régimen anterior, según Ramón Tamames, Fernando Suárez e Ignacio Camuñas, participantes en la mesa redonda “La Transición política española: análisis y enseñanzas de utilidad ante los acontecimientos futuros”, organizada por la Real Academia de Doctores de España (RADE), y presidida por su titular Jesús Álvarez Fernández-Represa.

Para Ramón Tamames Gómez, miembro de la Real Academia de Ciencias Morales y Políticas, la Transición comenzó cuando el régimen de Franco empezó a debilitarse con la muerte de su posible sucesor, el almirante Carrero Blanco, y el siguiente Gobierno, de Arias Navarro, intentó una apertura dentro del marco del Movimiento Nacional, “con sus pretendidas leyes eternas”; mientras que la oposición, incluido el PCE, quería una constitución democrática. La muerte de Franco provocó un cambio trascendental para la dictadura, a la que el ponente reconoció un crecimiento económico importante, con un índice anual acumulado de un 7,7 por ciento en sus últimos años, que multiplicó dos veces y media la renta nacional del 62, con un aumento extraordinario de las clases medias, circunstancia que favoreció una transición pacífica con un escenario muy distinto al de 1936.

En 1975, añadió Tamames, la reforma fue inevitable y arrancó con la elección de Adolfo Suárez como Presidente del Gobierno. Carrillo era partidario de votar sí en el referéndum de la ley que reformaba el régimen, pero como el PSOE se había quedado en la abstención, el PCE tuvo que abstenerse. A partir de ahí, régimen y oposición negociaron fructíferamente, se reconoce el PCE y se llega a las elecciones generales y los Pactos de la Moncloa, lo que consolidó “un propósito que no era de la oposición ni del Gobierno”, agregó. “En aquellos pactos estaba todo el arco parlamentario, salvo Letamendía, representante de la ETA en cierto modo, al que hay que recordar porque sometió al pleno del Congreso una cláusula de autodeterminación, que los vascos votaron en contra porque habían conseguido el reconocimiento de sus fueros, y los catalanes se abstuvieron, menos dos de ellos”. La Transición terminó, según Tamames, al entrar en vigor la Constitución, formarse un Gobierno elegido directamente por el pueblo, quedar derogadas las leyes de Franco y cumplirse los sueños de Torcuato Fernández Miranda, Suárez, González y Carrillo; “aunque algunos la han prolongado hasta el 23-F e, incluso, hasta nuestros días, con la aparición del populismo”.

La amistosa relación entre los líderes

La Transición empezó mucho antes de la muerte de Carrero Blanco, discrepó Fernando Suárez González, miembro de la Real Academia de Ciencias Morales y Políticas, para quien el régimen de Franco no se puede presentar como un episodio monolítico único que dura cuarenta años y acaba igual que empieza. “La evolución de la sociedad española a lo largo de esos años hace que, no solo la oposición, sino también el régimen y muchos de sus dirigentes, se den cuenta de que hay que evolucionar y que se tienen que parecer a los países de su entorno”. El acuerdo fue más fácil, continuó Suárez, por la homogeneidad social. Mientras que los dirigentes de la República no debieron tomar un café juntos jamás y entre Largo Caballero y Calvo Sotelo no debía de haber la menor posibilidad de entendimiento, los dirigentes de la izquierda y de la derecha estudiaban en las mismas facultades, se conocían y eran amistosos, además de no estar dispuestos a repetir la historia.

Carrero, subrayó Suárez, no era el sucesor de Franco, ni hubiera sido un obstáculo para los proyectos democratizadores de don Juan Carlos, porque la evolución, la apertura y el cambio estaban en el ambiente de la sociedad española y en la oposición, empezando por un PCE que no ponía en peligro el régimen. En este punto, Suárez lanzó una pregunta relacionada con el presente: ¿Podemos es un riesgo para Rajoy, o un refuerzo? Desde su punto de vista, el PCE reforzaba el régimen franquista ante la sociedad española de los 70. El Franco sí, comunismo no, funcionó entonces con el consentimiento de la inmensa mayoría que no quería las experiencias que el PCE proponía en sus textos, que no en sus intenciones.

El juramento de los Principios del Movimiento Nacional por parte del Príncipe Juan Carlos fue una cuestión muy polémica, porque se consideraba que una parte de ellos era inalterable. Pero, como mantenía Fernández Miranda, todos eran modificables, porque habían sido aprobados en un artículo que se podía cambiar, lo que evitaba que el Rey cometiera perjurio.

Por su parte, Ignacio Camuñas Solís, exministro de Relaciones con las Cortes y diplomático, mantuvo que el núcleo duro de la Transición empezó con la Ley para la Reforma Política y culminó con la aprobación de la Constitución. No obstante, consideró el orador que hay un periodo en el que ocurren hechos importantes que van a hacer posible la Transición, que comenzó en 1947 con la Ley de Sucesión. No se puede decir que los años 40, 50 o 60 sean parte de la Transición, precisó Camuñas, pero es útil recordar que hay condicionantes que van a favorecerla: la designación de don Juan Carlos como futuro rey, en 1969; el Congreso de Munich de la oposición democrática, la transformación del PCE que abraza el eurocomunismo y da los primeros pasos hacia la reconciliación nacional; el Concilio Vaticano II que provoca un cambio en la Iglesia española, la Ley de Prensa de Fraga, y la salida de españoles al exterior y la llegada de extranjeros a España.

Tributo de admiración a Ruiz-Giménez

Camuñas rindió tributo de admiración a Joaquín Ruiz-Giménez, creador de Cuadernos para el Diálogo, que fomentó la relación humana entre todos los que iban a ser protagonistas de la vida política española y permitió que, el día que se abrieron las Cortes democráticas, todos se abrazaron y saludaran con cordialidad. A lo anterior, sumó Camuñas la labor del equipo económico de ministros vinculados al Opus Dei, que desarrollaron la estructura económica de España, y un acuerdo magnífico con la CEE, así como el testamento de Franco, en el que el dictador pedía al Ejército que prestará absoluta lealtad al Rey, como la había tenido con él, lo que dio al monarca una enorme capacidad de maniobra.

La Ley para la Reforma Política liberó al Rey del juramento a los Principios Fundamentales del Movimiento Nacional y robó a la oposición su principal cartel, la ruptura, porque, en el fondo, era en sí misma el principio de una ruptura pacífica que permitía las elecciones generales, dijo Camuñas. Luego se legalizaron todos los partidos políticos. Y Adolfo Suárez, aseguró el ponente, se dio cuenta de que Fraga y González tenían la intención de encabezar un sistema bipartidista, y utilizó al PCE para obligar al PSOE a aceptar el proceso que proponía la ley. Otro acontecimiento, sustancial para los monárquicos, fue la renuncia de don Juan de Borbón en mayo de 1977, que aceptó la legitimidad de Juan Carlos I. Aunque la Constitución del 78 cierra la Transición, concluyó Camuñas, hay acontecimientos posteriores de gran interés, como la alternancia en el poder entre derecha e izquierda y el 23-F, cuya superación consolidó el proceso, reforzado después por la entrada en la OTAN y el ingreso en la CEE.

La ley que abre heridas del pasado

Según Camuñas, la Transición fue posible porque ni el régimen pudo mantenerse después de Franco, ni la oposición democrática fue capaz de derrocarle. Pero, la base era más profunda: “Todos estábamos de acuerdo en que no queríamos volver al pasado, queríamos la reconciliación, que es lo que se ha puesto en peligro con esa malhadada ley aprobada bajo la presidencia de Zapatero. Abrir las heridas del pasado es uno de los errores históricos más comprometedores para la convivencia nacional”. Ya en el coloquio, Camuñas calificó la Ley de Memoria Histórica de puñalada trasera a la Transición y de intento de ganar de forma democrática la contienda que entonces perdió la izquierda. De esta ley distinguió la obsesión de una parte de la izquierda por sacar del tablero político a la derecha, como ya ocurrió en la República. Y añadió que, no derogarla cuando tuvo mayoría para hacerlo convierte a Rajoy en cómplice de la ley, al ratificarla de forma tácita.

A la crítica contra la Ley de Memoria Histórica se sumó Fernando Suárez, que la consideró una catástrofe y definió de error histórico no haberla derogado, porque “está creando un clima, que crece y aumenta, entre la juventud española de que la República era el ideal de los mundos, que el régimen franquista era el capricho de un Tejero que se salió con la suya, y todo lo demás ha sido un error de cuarenta años”. Suárez recalcó la enorme generosidad de las Cortes que mayoritariamente respaldaron la reforma política, y se mostró orgulloso de su papel como ponente del proyecto; pero achacó el mérito a todo el grupo que lo presentó, con Miguel Primo de Rivera a la cabeza, sobrino del fundador de la Falange y de la Delegada Nacional de la Sección Femenina, Pilar Primo de Rivera, de la que consiguió que se abstuviera, y otros miembros seleccionados realmente por Fernández Miranda, que no tenían vinculación con la victoria del 39 y se podían entender con adversarios del régimen. “La ruptura no era posible con aquel Ejército, con aquel régimen, con aquel consenso nacional; solo cabía la reforma, insistió Suárez.

Muchos hubieran querido que se crisparan las circunstancias, que la ruptura se hubiera planteado, advirtió Tamames, pero el espíritu de reconciliación jugó una parte fundamental en la Transición. “Y ese espíritu está en peligro hoy, porque algunos consideran que las izquierdas vendieron su ideología y pactaron con la burguesía sin ninguna clase de contraprestación”, dijo Tamames, antes de precisar que la moción de censura que propugna Podemos es una bomba atómica, porque podría conseguir el cambio a un Gobierno que ya no representa el espíritu de la Transición.

Terminó el coloquio con divergencias entre los ponentes. Fernando Suárez sostuvo que la ruptura entre Adolfo Suárez y Fernández Miranda se debió, fundamentalmente, a la introducción del término nacionalidad en la Constitución. Para el segundo, nacionalidad es igual que nación, la nación reclama un Estado y se refuerzan así los separatismos vasco y catalán, lo que le llevó a abandonar el grupo de la UCD en el Senado. Para Camuñas, el principio de la ruptura fue anterior porque, en el diseño de Fernández Miranda, Suárez no se debía presentar a las elecciones del 15-J, pero Adolfo quiso recapitalizar su posición. Por su lado, Tamames aseveró que la palabra nacionalidad, que flota desde Pi y Margall, ha permitido tener cuarenta años de tranquilidad sin emplearse a penas. El problema separatista viene, según Tamames, de otros hechos, como la entrega de la enseñanza a las autonomías o que los gobiernos centrales hayan estado en manos de las minorías.

La coincidencia en no repetir el pasado y lograr la reconciliación nacional hizo posible la Transición

La Transición política fue posible porque sus personajes, además de mantener una cordial relación humana, estaban de acuerdo en no repetir el pasado y en alcanzar la reconciliación nacional, aspectos que hoy están en peligro por la Ley de Memoria Histórica y porque una parte de la izquierda considera que la oposición democrática vendió su ideología al régimen anterior, según Ramón Tamames, Fernando Suárez e Ignacio Camuñas, participantes en la mesa redonda “La Transición política española: análisis y enseñanzas de utilidad ante los acontecimientos futuros”, organizada por la Real Academia de Doctores de España (RADE), y presidida por su titular Jesús Álvarez Fernández-Represa.

Como explicó el promotor de la sesión, Rafael Morales-Arce Macías, Académico de Número de la Sección de Ciencias Políticas y de la Economía, de la RADE, el propósito de la convocatoria, era recordar el empeño y esfuerzo que un selecto grupo de españoles hizo para transformar el régimen político anterior y nos ha permitido vivir casi cuarenta años en un régimen homologable con los países democráticos de nuestro entorno, mientras comprobamos que, casi en los diez últimos años, empeoran algunos indicadores fundamentales: la unidad e identidad de la nación, el reparto de las cargas públicas, el desempleo y la pérdida del estado de bienestar o la corrupción generalizada, sin que actúen los debidos controles y contrapesos propios de un estado democrático.

Para Ramón Tamames Gómez, Académico de Número de la Real Academia de Ciencias Morales y Políticas, la Transición comenzó cuando el régimen de Franco empezó a debilitarse con la muerte de su posible sucesor, el almirante Carrero Blanco, y el siguiente Gobierno, de Arias Navarro, intentó una apertura dentro del marco del Movimiento Nacional, “con sus pretendidas leyes eternas”; mientras que la oposición, incluido el PCE, quería una constitución democrática. La muerte de Franco provocó un cambio trascendental para la dictadura, a la que el ponente reconoció un crecimiento económico importante, con un índice anual acumulado de un 7,7 por ciento en sus últimos años, que multiplicó dos veces y media la renta nacional del 62, con un aumento extraordinario de las clases medias, circunstancia que favoreció una transición pacífica con un escenario muy distinto al de 1936.

En 1975, añadió Tamames, la reforma fue inevitable y arrancó con la elección de Adolfo Suárez como Presidente del Gobierno. Carrillo, recordó, era partidario de votar sí en el referéndum de la ley que reformaba el régimen, pero como el PSOE se había quedado en la abstención, el PCE tuvo que abstenerse. A partir de ahí, régimen y oposición negociaron fructíferamente, se reconoce el PCE y se llega a las elecciones generales y los Pactos de la Moncloa, lo que consolidó “un propósito que no era de la oposición ni del Gobierno”, agregó. “En aquellos pactos estaba todo el arco parlamentario, salvo Letamendía, representante de la ETA en cierto modo, al que hay que recordar porque sometió al pleno del Congreso una cláusula de autodeterminación, que los vascos votaron en contra porque habían conseguido el reconocimiento de sus fueros, y los catalanes se abstuvieron, menos dos de ellos”. La Transición terminó, según Tamames, al entrar en vigor la Constitución, formarse un Gobierno elegido directamente por el pueblo, quedar derogadas las leyes de Franco y cumplirse los sueños de Torcuato Fernández Miranda, Suárez, González y Carrillo; “aunque algunos la han prolongado hasta el 23-F e, incluso, hasta nuestros días, con la aparición del populismo”.

La amistosa relación entre los líderes

La Transición empezó mucho antes de la muerte de Carrero Blanco, discrepó Fernando Suárez González, Académico de Número de la Real Academia de Ciencias Morales y Políticas, para quien el régimen de Franco no se puede presentar como un episodio monolítico único que dura cuarenta años y acaba igual que empieza. “La evolución de la sociedad española a lo largo de esos años hace que, no solo la oposición, sino también el régimen y muchos de sus dirigentes, se den cuenta de que hay que evolucionar y que se tienen que parecer a los países de su entorno”. El acuerdo fue más fácil, continuó Suárez, por la homogeneidad social. Mientras que los dirigentes de la República no debieron tomar un café juntos jamás y entre Largo Caballero y Calvo Sotelo no debía de haber la menor posibilidad de entendimiento, los dirigentes de la izquierda y de la derecha estudiaban en las mismas facultades, se conocían y eran amistosos, además de no estar dispuestos a repetir la historia.

Carrero, subrayó Suárez, no era el sucesor de Franco, ni hubiera sido un obstáculo para los proyectos democratizadores de don Juan Carlos, porque la evolución, la apertura y el cambio estaban en el ambiente de la sociedad española y en la oposición, empezando por un PCE que no ponía en peligro el régimen. En este punto, Suárez lanzó una pregunta relacionada con el presente: ¿Podemos es un riesgo para Rajoy, o un refuerzo? Desde su punto de vista, el PCE reforzaba el régimen franquista ante la sociedad española de los 70. El Franco sí, comunismo no, funcionó entonces con el consentimiento de la inmensa mayoría que no quería las experiencias que el PCE proponía en sus textos, que no en sus intenciones.

A la muerte de Franco se cumplieron las previsiones sucesorias estrictamente como estaban diseñadas, prosiguió Suárez, con una sola excepción: el sequito que acompañó el armón con el cadáver no fue a pie hasta Moncloa, como estaba programado, sino que se paró al inicio de la calle de Ferraz, porque se consideró demasiado largo. El juramento de los Principios del Movimiento Nacional por parte del Príncipe Juan Carlos fue una cuestión muy polémica, porque se consideraba que una parte de ellos era inalterable. Pero, como mantenía Fernández Miranda, todos eran modificables, porque habían sido aprobados en un artículo que se podía cambiar, lo que evitaba que el Rey cometiera perjurio.

Por su parte, Ignacio Camuñas Solís, exministro de Relaciones con las Cortes y diplomático, mantuvo que el núcleo duro de la Transición empezó con la Ley para la Reforma Política y culminó con la aprobación de la Constitución. No obstante, consideró el orador que hay un periodo en el que ocurren hechos importantes que van a hacer posible la Transición, que comenzó en 1947 con la Ley de Sucesión. No se puede decir que los años 40, 50 o 60 sean parte de la Transición, precisó Camuñas, pero es útil recordar que hay condicionantes que van a favorecerla: la designación de don Juan Carlos como futuro rey, en 1969; el Congreso de Munich de la oposición democrática, la transformación del PCE que abraza el eurocomunismo y da los primeros pasos hacia la reconciliación nacional; el Concilio Vaticano II que provoca un cambio en la Iglesia española, la Ley de Prensa de Fraga, y la salida de españoles al exterior y la llegada de extranjeros a España.

Tributo de admiración a Ruiz-Giménez

Camuñas rindió tributo de admiración a Joaquín Ruiz-Giménez, creador de Cuadernos para el Diálogo, que fomentó la relación humana entre todos los que iban a ser protagonistas de la vida política española y permitió que, el día que se abrieron las Cortes democráticas, todos se abrazaron y saludaran con cordialidad. A lo anterior, sumó Camuñas la labor del equipo económico de ministros vinculados al Opus Dei, que desarrollaron la estructura económica de España, y un acuerdo magnífico con la CEE, así como el testamento de Franco, en el que el dictador pedía al Ejército que prestará absoluta lealtad al Rey, como la había tenido con él, lo que dio al monarca una enorme capacidad de maniobra.

La Ley para la Reforma Política liberó al Rey del juramento a los Principios Fundamentales del Movimiento Nacional y robó a la oposición su principal cartel, la ruptura, porque, en el fondo, era en sí misma el principio de una ruptura pacífica que permitía las elecciones generales, dijo Camuñas. Luego se legalizaron todos los partidos políticos. Y Adolfo Suárez, aseguró el ponente, se dio cuenta de que Fraga y González tenían la intención de encabezar un sistema bipartidista, y utilizó al PCE para obligar al PSOE a aceptar el proceso que proponía la ley. Otro acontecimiento, sustancial para los monárquicos, fue la renuncia de don Juan de Borbón en mayo de 1977, que aceptó la legitimidad de Juan Carlos I. Aunque la Constitución del 78 cierra la Transición, concluyó Camuñas, hay acontecimientos posteriores de gran interés, como la alternancia en el poder entre derecha e izquierda y el 23-F, cuya superación consolidó el proceso, reforzado después por la entrada en la OTAN y el ingreso en la CEE.

La ley que abre heridas del pasado

Según Camuñas, la Transición fue posible porque ni el régimen pudo mantenerse después de Franco, ni la oposición democrática fue capaz de derrocarle. Pero, la base era más profunda: “Todos estábamos de acuerdo en que no queríamos volver al pasado, queríamos la reconciliación, que es lo que se ha puesto en peligro con esa malhadada ley aprobada bajo la presidencia de Zapatero. Abrir las heridas del pasado es uno de los errores históricos más comprometedores para la convivencia nacional”. Ya en el coloquio, Camuñas calificó la Ley de Memoria Histórica de puñalada trasera a la Transición y de intento de ganar de forma democrática la contienda que entonces perdió la izquierda. De esta ley distinguió la obsesión de una parte de la izquierda por sacar del tablero político a la derecha, como ya ocurrió en la República. Y añadió que, no derogarla cuando tuvo mayoría para hacerlo convierte a Rajoy en cómplice de la ley, al ratificarla de forma tácita.

A la crítica contra la Ley de Memoria Histórica se sumó Fernando Suárez, que la consideró una catástrofe y definió de error histórico no haberla derogado, porque “está creando un clima, que crece y aumenta, entre la juventud española de que la República era el ideal de los mundos, que el régimen franquista era el capricho de un Tejero que se salió con la suya, y todo lo demás ha sido un error de cuarenta años”. Suárez recalcó la enorme generosidad de las Cortes que mayoritariamente respaldaron la reforma política, y se mostró orgulloso de su papel como ponente del proyecto; pero achacó el mérito a todo el grupo que lo presentó, con Miguel Primo de Rivera a la cabeza, sobrino del fundador de la Falange y de la Delegada Nacional de la Sección Femenina, Pilar Primo de Rivera, de la que consiguió que se abstuviera, y otros miembros seleccionados realmente por Fernández Miranda, que no tenían vinculación con la victoria del 39 y se podían entender con adversarios del régimen. “La ruptura no era posible con aquel Ejército, con aquel régimen, con aquel consenso nacional; solo cabía la reforma, insistió Suárez.

Muchos hubieran querido que se crisparan las circunstancias, que la ruptura se hubiera planteado, advirtió Tamames, pero el espíritu de reconciliación jugó una parte fundamental en la Transición. “Y ese espíritu está en peligro hoy, porque algunos consideran que las izquierdas vendieron su ideología y pactaron con la burguesía sin ninguna clase de contraprestación”, dijo Tamames, antes de precisar que la moción de censura que propugna Podemos es una bomba atómica, porque podría conseguir el cambio a un Gobierno que ya no representa el espíritu de la Transición.

Terminó el coloquio con divergencias entre los ponentes. Fernando Suárez sostuvo que la ruptura entre Adolfo Suárez y Fernández Miranda se debió, fundamentalmente, a la introducción del término nacionalidad en la Constitución. Para el segundo, nacionalidad es igual que nación, la nación reclama un Estado y se refuerzan así los separatismos vasco y catalán, lo que le llevó a abandonar el grupo de la UCD en el Senado. Para Camuñas, el principio de la ruptura fue anterior porque, en el diseño de Fernández Miranda, Suárez no se debía presentar a las elecciones del 15-J, pero Adolfo quiso recapitalizar su posición. Por su lado, Tamames aseveró que la palabra nacionalidad, que flota desde Pi y Margall, ha permitido tener cuarenta años de tranquilidad sin emplearse a penas. El problema separatista viene, según Tamames, de otros hechos, como la entrega de la enseñanza a las autonomías o que los gobiernos centrales hayan estado en manos de las minorías.

El ojo, un biomarcador precoz para diagnosticar enfermedades neurodegenerativas, como Alzheimer, Párkinson y glaucoma

El ojo puede servir como biomarcador precoz para diagnosticar enfermedades neurodegenerativas, como Alzheimer, Párkinson y glaucoma, que comparten idénticos mecanismos patogénicos: estrés oxidativo, daño mitocondrial, excitotoxicidad por glutamato, procesos de agregación proteica y activación glial, que causan alteraciones en la retina y en la vía visual, afirmó José Manuel Ramírez Sebastián, Director del Instituto de Investigaciones Oftalmológicas Ramón Castroviejo, de la Universidad Complutense, en su discurso de ingreso en la Real Academia de Doctores de España (RADE), como Académico Correspondiente.

El ojo, una ventana al cerebro fue el título elegido por el recipiendario para tomar posesión de su plaza durante un acto presido por el titular de la RADE, Jesús Álvarez Fernández-Represa, acompañado del Secretario General de la corporación, Emilio de Diego García, y del Presidente de la Sección de Medicina, Antonio González González, que presentó al nuevo académico.

Después de describir con detalle las características de las enfermedades neurodegenerativas mencionadas y sus procesos metabólicos, el doctor Ramírez explicó las partes esenciales del ojo y la forma en que la información visual se transmite hacia centros de procesamiento especializados que permiten percibir imágenes.

Dado que el ojo es una extensión del cerebro, señaló Ramírez, “buscar manifestaciones oculares en patologías cerebrales parece razonable. De hecho, se han detectado varios cambios oculares, que se han caracterizado a través de evaluaciones oftalmológicas en pacientes con trastornos del sistema nervioso central, tales como Alzheimer, ictus, esclerosis múltiple y Párkinson”. En muchos de estos trastornos, agregó, “las manifestaciones oculares preceden a menudo a los síntomas cerebrales, lo que parece indicar que las exploraciones oculares podrían ofrecer un medio de diagnóstico precoz”.

Alteraciones visuales en el Párkinson

El Párkinson, dijo, es un trastorno neurodegenerativo crónico que se asocia principalmente con disfunción motora, pero también implica síntomas no motores que pueden incluir déficits visuales. Tales deficiencias pueden manifestarse en disminución de la sensibilidad al contraste, alteración en la visión del color y respuestas anormales en las pruebas electrofisiológicas. Las retinas de los pacientes con Párkinson presentan, entre otras, alteraciones de los fotorreceptores y de las células ganglionares de la retina.

Las primeras anormalidades en el sistema visual de los pacientes de Alzheimer se observaron en la década de los 70, continuó Ramírez, e inicialmente se consideraron una disfunción a nivel cortical. Pero los estudios de los últimos 30 años han revelado que todas las partes del sistema visual podrían estar afectadas, incluyendo el nervio óptico y la retina. “En esta patología se han observado cambios anatómicos a lo largo de toda la vía visual y sus correspondientes cambios funcionales, que se han analizado mediante procedimientos psicofísicos. El Alzheimer puede afectar a diferentes aspectos del procesamiento visual, en consonancia con el impacto de la enfermedad en las regiones dorsales y ventrales. Los pacientes que tienen dañada la región dorsal tienen afectadas funciones como la discriminación angular y la percepción del movimiento, y si lo que está dañado es la región ventral, se produce un deterioro en la discriminación de caras, colores y formas”, añadió.

Tras haberse observado en las retinas ancianas de ratones transgénicos dobles, afectados de un tipo de Alzheimer, depósitos de β-amiloide y acúmulo de tau hiperfosforilada, un estudio post-mortem en retinas humanas confirmó la presencia de placas de β-amiloide en pacientes de esta enfermedad y, posteriormente, Campbell y su equipo detectaron estos depósitos en la retina, observaron sus propiedades de polarización y postularon este proceso como un nuevo método diagnóstico. Por otra parte, investigaciones con resonancia magnética han demostrado una disminución en el volumen del nervio óptico estadísticamente significativa en enfermos de Alzheimer, que no tiene correlación con el volumen cerebral. A su vez, Cuzzo y su grupo han comprobado una disminución de la expresión de la proteína receptora de lipoproteína de baja densidad en los nervios ópticos de once pacientes con Alzheimer en comparación con diez controles, “lo que apoyaría la hipótesis de que esta proteína podría jugar un papel en la fisiopatología de la neuropatía óptica en esta enfermedad. Y el mismo grupo de investigación confirmó degeneración axonal en los nervios ópticos de los pacientes de Alzheimer, hallada previamente por Hinton.

La retina, detectora del Alzheimer

Como indicó Ramírez, existe consenso actualmente en que, probablemente, en el Alzheimer la corteza visual primaria se afecte después de alcanzar otras regiones corticales, excepto en una variante que se manifiesta con síntomas visuales tempranos; sin embargo, se han documentado, entre otros efectos: acumulación de placas, ovillos neurofibrilares o disminución del número de neuronas y de densidad de capilares.

La mayoría de los estudios publicados han dado como resultado que la sensibilidad al contraste está reducida en enfermos de Alzheimer en todas las frecuencias espaciales analizadas. El papel de esta capacidad visual, subrayó el recipiendario, se subestima a menudo aunque es muy importante para la vida cotidiana de los ancianos y para predecir y evitar el riesgo de caídas.

Gracias a la tomografía de coherencia óptica, una técnica de imagen que funciona de forma similar a la ecografía, pero que utiliza ondas de luz de baja coherencia en lugar de ondas de sonido, la capa de fibras nerviosas, las células ganglionares y las capas internas de la retina se consideran biomarcadores indirectos del sistema nervioso central, prosiguió Ramírez, lo que permite predecir hallazgos cerebrales patológicos en los pacientes que sufren diferentes enfermedades neurológicas. Todos los estudios realizados con esta técnica muestran una reducción significativa del espesor de la capa de fibras nerviosas de la retina en afectados de Alzheimer comparados con los controles pareados por edad, concluyó.

Investigador el deterioro visual irreversible

Licenciado en Medicina en 1978, especialista en Oftalmologia en 1981 y doctor en Medicina y Cirugía en 1983, todo ello en la Facultad de Medicina de la Universidad Complutense, José Manuel Ramírez Sebastián fue escalando sucesivamente todos los niveles y puestos docentes, desde profesor ayudante hasta catedrático, en 2007, destacó el doctor Antonio González al presentar al nuevo miembro de la RADE.

Secretario primero y Director después del Departamento de Oftalmologia, Ramírez Sebastián tiene acreditados seis quinquenios de docencia. Su actividad Investigadora, que corre pareja con la docente, comenzó en 1983, con su tesis doctoral El estudio de la vascularización de la papila del nervio óptico por el método de diafanización y relleno con polímeros de baja densidad, que obtuvo premio extraordinario. Sus campos de investigación se han centrado, principalmente, en la óptica y la optometría, la retinopatía diabética, el glaucoma y, en general, el deterioro visual irreversible relacionado con la isquemia y la inflamación, principalmente. Tiene reconocidos cuatro sexenios de investigación.

Ha dirigido dieciocho tesis doctorales y ha publicado cinco libros y ciento doce artículos en revistas indexadas. De los cuales, veinticinco en los diez últimos años, en inglés. Participa activamente en la docencia de postgrado en el Máster de Investigación en Ciencias de la Visión y, en la actualidad es Director del Instituto de Investigaciones Oftalmológicas Ramón Castroviejo.

Está en posesión de numerosos premios y condecoraciones y sigue desarrollando y dirigiendo numerosos proyectos de Investigación, indicó el doctor González, antes de poner de relieve el peso de los muchos “trienios humanísticos” que encierran su personalidad y forma de ser que, “en opinión de sus amigos y en el mío propio, han jugado también un no menos destacado papel a la hora de llegar a ser miembro de esta insigne institución. Un hombre muy culto, afable, extrovertido, optimista, de trato humilde, gran conversador y amante de las bellas artes. Le gusta mucho leer y escribir, la música, el dibujo y la pintura en general”. Detalles que el presentador amplió al resaltar que el nuevo académico realiza personalmente gran parte de los esquemas anatómicos que ilustran sus libros y publicaciones.

El ojo, un biomarcador precoz para diagnosticar enfermedades neurodegenerativas, como Alzheimer, Párkinson y glaucoma

 

· Ingresa en la RADE, como Académico Correspondiente, José Manuel Ramírez Sebastían, Director del Instituto de Investigaciones Oftalmológicas Ramón Castroviejo, de la Universidad Complutense

 · En muchos de estos trastornos, “las manifestaciones oculares preceden a menudo a los síntomas cerebrales, lo que parece indicar que las exploraciones oculares podrían ofrecer un medio de diagnóstico precoz”

· Las retinas de los pacientes con Párkinson presentan, entre otras, alteraciones de los fotorreceptores y de las células ganglionares de la retina

· En el Alzheimer, todas las partes del sistema visual podrían estar afectadas, incluyendo el nervio óptico y la retina

 - Pie de foto 002bis.- El doctor José Manuel Ramírez Sebastián, durante la lectura de su discurso de ingreso


MADRID (19-06-17).- El ojo puede servir como biomarcador precoz para diagnosticar enfermedades neurodegenerativas, como Alzheimer, Párkinson y glaucoma, que comparten idénticos mecanismos patogénicos: estrés oxidativo, daño mitocondrial, excitotoxicidad por glutamato, procesos de agregación proteica y activación glial, que causan alteraciones en la retina y en la vía visual, afirmó José Manuel Ramírez Sebastián, Director del Instituto de Investigaciones Oftalmológicas Ramón Castroviejo,de la Universidad Complutense, en su discurso de ingreso, El ojo, una ventana al cerebro, en la Real Academia de Doctores de España (RADE), como Académico Correspondiente.

Dado que el ojo es una extensión del cerebro, señaló Ramírez, “buscar manifestaciones oculares en patologías cerebrales parece razonable. De hecho, se han detectado varios cambios oculares, que se han caracterizado a través de evaluaciones oftalmológicas en pacientes con trastornos del sistema nervioso central, tales como Alzheimer, ictus, esclerosis múltiple y Párkinson”. En muchos de estos trastornos, agregó, “las manifestaciones oculares preceden a menudo a los síntomas cerebrales, lo que parece indicar que las exploraciones oculares podrían ofrecer un medio de diagnóstico precoz”.

El Párkinson, dijo,es un trastorno neurodegenerativo crónico que se asocia principalmente con disfunción motora, pero también implica síntomas no motores que pueden incluir déficits visuales. Tales deficiencias pueden manifestarse en disminución de la sensibilidad al contraste, alteración en la visión del color y respuestas anormales en las pruebas electrofisiológicas. Las retinas de los pacientes con Párkinson presentan, entre otras, alteraciones de los fotorreceptores y de las células ganglionares de la retina.

Las primeras anormalidades en el sistema visual de los pacientes de Alzheimer se observaron en la década de los 70, continuó Ramírez, e inicialmente se consideraron una disfunción a nivel cortical. Pero los estudios de los últimos 30 años han revelado que todas las partes del sistema visual podrían estar afectadas, incluyendo el nervio óptico y la retina. “En esta patología se han observado cambios anatómicos a lo largo de toda la vía visual y sus correspondientes cambios funcionales, que se han analizado mediante procedimientos psicofísicos. El Alzheimer puede afectar a diferentes aspectos del procesamiento visual, en consonancia con el impacto de la enfermedad en las regiones dorsales y ventrales. Los pacientes que tienen dañada la región dorsal tienen afectadas funciones como la discriminación angular y la percepción del movimiento, y si lo que está dañado es la región ventral, se produce un deterioro en la discriminación de caras, colores y formas”, añadió.

La retina, detectora del Alzheimer

Tras haberse observado en las retinas ancianas de ratones transgénicos dobles, afectados de un tipo de Alzheimer, depósitos de β-amiloide y acúmulo de tau hiperfosforilada, un estudio post-mortem en retinas humanas confirmó la presencia de placas de β-amiloide en pacientes de esta enfermedad y, posteriormente, Campbell y su equipo detectaron estos depósitos en la retina, observaron sus propiedades de polarización y postularon este proceso como un nuevo método diagnóstico. Por otra parte, investigaciones con resonancia magnética han demostrado una disminución en el volumen del nervio óptico estadísticamente significativa en enfermos de Alzheimer,que no tiene correlación con el volumen cerebral.A su vez, Cuzzo y su grupo han comprobado una disminución de la expresión de la proteína receptora de lipoproteína de baja densidad en los nervios ópticos de once pacientes con Alzheimer en comparación con diez controles, “lo que apoyaría la hipótesis de que esta proteína podría jugar un papel en la fisiopatología de la neuropatía óptica en esta enfermedad. Y el mismo grupo de investigación confirmó degeneración axonal en los nervios ópticos de los pacientes de Alzheimer, hallada previamente por Hinton.

Como indicó Ramírez, existe consenso actualmente en que, probablemente, en el Alzheimer la corteza visual primaria se afecte después de alcanzar otras regiones corticales, excepto en una variante que se manifiesta con síntomas visuales tempranos; sin embargo, se han documentado, entre otros efectos: acumulación de placas, ovillos neurofibrilareso disminución del número de neuronas y de densidad de capilares.

La mayoría de los estudios publicados han dado como resultado que la sensibilidad al contraste está reducida en enfermos de Alzheimer en todas las frecuencias espaciales analizadas. El papel de esta capacidad visual, subrayó el recipiendario, se subestima a menudo aunque es muy importante para la vida cotidiana de los ancianos y para predecir y evitar el riesgo de caídas.

Gracias a la tomografía de coherencia óptica, una técnica de imagen que funciona de forma similar a la ecografía, pero que utiliza ondas de luz de baja coherencia en lugar de ondas de sonido, la capa de fibras nerviosas, las células ganglionares y las capas internas de la retina se consideran biomarcadores indirectos del sistema nervioso central, prosiguió Ramírez, lo que permite predecir hallazgos cerebrales patológicos en los pacientes que sufren diferentes enfermedades neurológicas. Todos los estudios realizados con esta técnica muestran una reducción significativa del espesor de la capa de fibras nerviosas de la retina en afectados de Alzheimer comparados con los controles pareados por edad, concluyó.

Investigador del deterioro visual irreversible

Licenciado en Medicina en 1978, especialista en Oftalmologia en 1981 y doctor en Medicina y Cirugía en 1983, todo ello en la Facultad de Medicina de la Universidad Complutense, José Manuel Ramírez Sebastián fue escalando sucesivamente todos los niveles y puestos docentes, desde profesor ayudante hasta catedrático, en 2007.

Secretario primero y Director después del Departamento de Oftalmologia, Ramírez Sebastián tiene acreditados seis quinquenios de docencia. Su actividad Investigadoracomenzó, en 1983, con su tesis doctoral El estudio de la vascularización de la papila del nervio óptico por el método de diafanización y relleno con polímeros de baja densidad, que obtuvo premio extraordinario. Sus campos de investigación se han centrado, principalmente,en la óptica y la optometría, la retinopatía diabética, el glaucoma y, en general, el deterioro visual irreversible relacionado con la isquemia y la inflamación, principalmente.Tiene reconocidos cuatro sexenios de investigación.

Ha dirigido dieciocho tesis doctorales y ha publicado cinco libros y ciento doce artículos en revistas indexadas. De los cuales, veinticinco en los diez últimos años, en inglés. Participa activamente en la docencia de postgrado en el Máster de Investigación en Ciencias de la Visión y, en la actualidad es Director del Instituto de Investigaciones Oftalmológicas Ramón Castroviejo.

La RADE resalta la eminente figura académica de Darío Maravall Casesnoves en una sesión in memoriam

Hombre bondadoso, de talento ordenado, capacidad de trabajo, vocación por las tareas académicas y características propias de sabio renacentista, con profundo interés por mantener una perspectiva filosófica al estudiar problemas científicos y técnicos, además de dotado de una impresionante cabeza para las matemáticas, de las que él se consideraba simple aficionado. De esta forma describieron los intervinientes en la sesión in memoriam por Darío Maravall Casesnoves la figura del que fue miembro de la Real Academia de Doctores de España (RADE) desde 1968 hasta su fallecimiento, en 2016.

En el acto, que presidió el titular de la RADE, Jesús Álvarez Fernández-Represa, abrió el turno de intervenciones Saturnino de la Plaza Pérez, Académico de Número de la Sección de Ingeniería y Vicepresidente de la RADE, para quien Maravall, ingeniero agrónomo como él, fue compañero y amigo, además de una persona brillante, con 15.000 páginas escritas y publicadas en su vida.

Recordó De la Plaza que Maravall, siendo profesor suyo en la carrera, les puso como libro de texto un manual complicado, Ingeniería de las oscilaciones, que había publicado en 1959. Rememoró también la ocasión en que Maravall opositó a la cátedra de Física y Mecánica, en la Escuela de Ingenieros Agrónomos de Madrid, a la que optaba otro candidato protegido por el tribunal. La segunda prueba se iba a hacer en un despachito donde no cabían los estudiantes que querían presenciar el examen, por lo que protestaron hasta que el tribunal aceptó trasladarla al salón de actos. Maravall, agregó, “estuvo brillante y ganó la oposición”, y su oponente tuvo que conseguir su cátedra en una convocatoria posterior.

Cuando, en 1968, el interviniente opositó a una plaza de profesor adjunto, en la misma escuela, a Maravall le gustó su examen y le propuso dar clases de física con él, oferta que aceptó De la Plaza. Para impartir clases, Maravall impuso a sus adjuntos un libro de física matemática de enorme dificultad, “que había que estudiar en profundidad”. Sus caminos volvieron a coincidir cuando De la Plaza ingresó en el Instituto Nacional de Investigaciones Agronómicas (INIA), donde estaba Maravall, al que pidió que le dirigiera su tesis sobre propiedades físicas de la masa de harina de trigo. Maravall no solo aceptó, sino que se comprometió a proponer a la Real Academia de la Lengua que incluyera en el diccionario del término reología, sobre el que trataba la investigación. Más tarde fueron compañeros de claustro en la Escuela de Ingenieros Agrónomos, donde su relación fue siempre de gran cordialidad, igual que en la Sección de Ingeniería de la RADE.

En su último contacto, antes del verano de 2015, De la Plaza visitó a Maravall, ya enfermo, en su casa y le invitó a seguir publicando trabajos. El maestro le entregó entonces cuatro carpetas llenas de páginas manuscritas de matemáticas. A pesar de su gran capacidad para las matemáticas, Maravall se consideraba un simple aficionado a esta ciencia, “para la que tenía una cabeza impresionante”, concluyó De la Plaza.

Una obra interdisciplinar

Del ingreso de Maravall en la Escuela de Ingenieros Agrónomos se dice que no ha habido otro caso tan rápido, antes de la reforma de las enseñanzas técnicas, dijo, al comenzar sus palabras, Jaime Lamo de Espinosa, Académico de Número de la Sección de Ingeniería. Su vocación matemática le llevó a estudiar simultáneamente ciencias exactas. Más tarde fue becario del Instituto Jorge Juan de Matemáticas, del CSIC. Como funcionario de Agricultura pasó por la Sección de Ordenación y Fomento de la Producción Agraria, en Salamanca, y después, por el INIA. Posteriormente, ganó la cátedra en la Escuela de Ingenieros Agrónomos, donde “tuve el privilegio de ser alumno suyo de Física”, subrayó. Y, más tarde, fue profesor de estadística aplicada a la física.

Sus numerosos libros, prosiguió Lamo de Espinosa, versan sobre física matemática, mecánica y cálculo tensorial, teoría y aplicaciones de las oscilaciones lineales y no lineales, ecuaciones diferenciales y matrices, geometría analítica y proyectiva, procesos estocásticos y movimiento browniano, filosofía matemática, juegos de estrategia, etc.

Ingresó en la RADE el 16 de diciembre de 1980, con un discurso sobre Las matemáticas de los fenómenos hereditarios, un tema interdisciplinar como lo es la RADE, como explicó el propio Maravall. Su discurso de ingreso en la Real de Ciencias Exactas, Físicas y Naturales, sobre economía y la sociología como motores de la investigación matemática, “es digno de ser resaltado”, señaló el ponente. Mantenía Maravall que existen analogías entre fenómenos económicos y biológicos, por ejemplo, entre la lucha por la existencia de los seres vivos y la competencia industrial de la economía capitalista. Nos recuerda, continua, que un amplio sector de economistas, inspirados en Marx, admiten que como consecuencia de la estructura interna de la economía capitalista se produce con el tiempo una disminución del número de pequeños capitalistas que pasan a engrosar la clase proletaria, lo que provoca a la larga el colapso de la sociedad capitalista. A este fenómeno se le podía denominar muerte por proletarización del capitalismo, por analogía con el fenómeno físico descubierto por aquel entonces, que inspira las directrices de la filosofía natural de la segunda mitad del siglo XIX: “la muerte térmica del Universo”, consecuencia del segundo principio de la termodinámica. “Existe así, para Maravall, un nexo entre el determinismo de Laplace, el evolucionismo de Darwin, el marxismo y las ideas filosóficas implícitas en el segundo principio de la termodinámica”, afirmó Lamo de Espinosa.

De acuerdo con el economista francés Allais, afirmaba Maravall, en 1968, que “el desarrollo actual de las matemáticas en economía es apenas nada respecto a lo que será dentro de muy pocos años”. “Su profecía se ha cumplido. Y yo afirmo que hubiera sido un excepcional catedrático de econometría si hubiera querido”, manifestó Lamo de Espinosa antes de destacar, como cualidades humanas de Maravall, su bondad, talento ordenado, capacidad de trabajo, vocación hacia las tareas académicas, comprensión y buen trato hacia los alumnos y su entorno, “que le valieron todo en la vida y adornaron su asombrosa personalidad”.

Un sabio renacentista

Arturo Romero Salvador, Académico de Número de la Sección de Ciencias Experimentales, conoció a Darío Maravall en la Real Academia de Ciencias Exactas, Físicas y Naturales hace quince años, en su primera asistencia a un Pleno. Maravall intervenía como Presidente de la Sección de Exactas, que desempeño entre 2004 y 2012. En esos años, afirmó Romero, “pude disfrutar de su verbo fácil y de su interés por hacernos partícipes de sus amplios conocimientos. Recuerdo sus intervenciones por el sello que caracteriza a un hombre sabio y a un hombre ilusionado con su trabajo. Pocas veces faltaban las oportunas referencias históricas con las que enmarcaba sus reflexiones, a las que solía reforzar con interesantes y divertidas vivencias personales. Disfrutaba relacionando conocimientos de distintas disciplinas científicas, especialmente de las matemáticas, unas veces con la física, y otras con la medicina, la economía, la sociología o con las ciencias y tecnologías de la vida”.

Trabajador infatigable, Maravall participó en casi todas las actividades de la Real Academia de Ciencias Exactas, Físicas y Naturales, durante los cuarenta y ocho años que llevó la medalla número 5. Entre ellas, tuvo una contribución significativa en las distintas ediciones del Vocabulario Científico y Técnico, agregó.

Señaló Romero que Maravall estaba convencido de que la historia de la física y la de las Matemáticas han estado tan entrelazadas desde su nacimiento, que el progreso de una de ellas ha motivado el desarrollo de la otra. En sus trabajos hay ejemplos en los que demuestra “que no podía desarrollarse una teoría física, en una época determinada, porque no existía la herramienta matemática necesaria para elaborarla”; o que la disponibilidad del conocimiento matemático permitió la rápida elaboración de una nueva teoría física. Como gran matemático y buen conocedor de historia y filosofía de la ciencia se interesó por analizar las distintas revoluciones culturales y científicas. Opinaba que, para hacer algo interesante en filosofía matemática, es necesario disponer de grandes conocimientos de esta materia. Buscaba explicaciones a la ruptura de esquemas conceptuales aceptados universalmente durante periodos de tiempo bastante largos, que han servido para adquirir nuevos conocimientos o resolver problemas. “Encontró evidencias de que, unas veces, la revolución científica comenzaba con el resultado de un experimento o con un descubrimiento científico que contradecía los esquemas vigentes y finalizaba cuando se establecían otros modelos que eran capaces de explicar, tanto los conocimientos científicos antiguos, como los nuevos. Pero, en otros casos, la revolución científica es una consecuencia de la acción acumulativa de diversos cambios en un gran número de campos científicos que da como resultado un salto en la calidad del conocimiento de la realidad”.

En su artículo La importancia de las matemáticas para la biología y la agricultura, explicita Maravall su satisfacción por haber seguido tratando con profundidad la formación matemática de los ingenieros, que atribuía, no solo a su profesión de matemático e ingeniero agrónomo, sino también a su actividad como agricultor valenciano, agregó Romero. “Fue un firme defensor de la necesidad que tienen ingenieros, matemáticos y físicos de una apropiada formación filosófica y humanista. Con el mismo convencimiento, defendía que una filosofía natural hecha a espaldas de la ciencia, sin conocer de cerca y por dentro las complicaciones de los mecanismos que rigen los problemas científicos, queda vacía y con poco valor”, subrayó el ponente, que cerró su intervención afirmando que “a su reconocida capacidad de estudio y a su admirable inquietud científica, une don Darío muchas características de los sabios renacentistas”.

Una perspectiva filosófica para problemas científicos y técnicos

Darío Maravall Gómez-Allende, hijo del homenajeado, doctor ingeniero de telecomunicación y catedrático de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid, habló de la contribución de su padre al estudio de los sistemas teleológicos y su relevancia en los sistemas dinámicos cognitivos.

En una memoria publicada en 1956 en la revista de la Real Academia de Ciencias de Madrid, titulada Nuevos tipos de ecuaciones diferenciales e integrodiferenciales. Nuevos fenómenos de oscilación, Maravall Casesnoves introdujo por primera vez el concepto de oscilaciones teleológicas para distinguirlas de las oscilaciones hereditarias que aparecen en los sistemas físicos dotados de memoria. Los sistemas teleológicos o teleonómicos están orientados hacia un objetivo, su comportamiento está determinado no solo por el pasado sino, también, y de forma singular, por el futuro. Tienen capacidad de acción o actuación sobre su entorno y también una capacidad deliberativa que les permite elaborar una representación simbólica o modelo de la realidad circundante. Debido a esta doble capacidad, no son tan frecuentes en las ciencias físico-químicas, que tratan de sistemas no vivos, como lo son en biología, sociología y economía.

“El significado semántico y ontológico de los sistemas teleonómicos plantea problemas teóricos de gran calado, que incluyen problemas como la autoconciencia, la autonomía de acción, el libre albedrío y las representaciones mentales, ya que al introducir en las respectivas ecuaciones integrodiferenciales y en las ecuaciones en diferencias los valores que tomarán esas variables en un instante futuro, estos sistemas no son sensu stricto físicamente realizables, salvo que se introduzca un modelo predictivo en el sistema global (lo que podríamos denominar variables con auto-referencia proyectiva), una capacidad cognitiva propia de seres inteligentes y salvo que estos sistemas posean, además, capacidad de actuación autónoma”, aseguró.

Desde un punto de vista estrictamente abstracto y formal es posible el estudio matemático de los sistemas teleonómicos o teleológicos, indicó el ponente. Debido a la doble exigencia de poseer una cierta capacidad cognitiva y de actuación autónoma in vivo, los sistemas teleonómicos aparecen en biología, sociología y economía, porque los agentes individuales de sus sistemas poseen capacidades cognitivas que permiten representar y predecir el futuro, y poseen autonomía de actuación. Y también aparecen en robótica cognitiva, donde es posible programar modelos predictivos del entorno del robot y de su comportamiento, y además programar acciones autónomas in vivo.

También se han planteado sistemas teleonómicos en ecología de plantas, especialmente en modelos de crecimiento de raíces, e, incluso, se ha llegado a especular con el término de cognición vegetal. Tras introducir en la literatura técnica nuevas ecuaciones integrodiferenciales teleonómicas cuyas soluciones son funciones oscilantes a las que denominó oscilaciones teleológicas, Maravall Casesnoves publicó trabajos muy técnicos, además de libros sobre filosofía de la ciencia y de la matemática de naturaleza más teórica y filosófica sobre estas oscilaciones teleológicas, apoyándose en las ideas del filósofo alemán Dilthey y su perspectiva finalista de los sistemas sociales.

Para finalizar, el orador aludió a una faceta muy relevante de su padre que ha constituido una referencia intelectual de primer orden en su propia actividad investigadora: su profundo interés por adoptar una perspectiva filosófica en el estudio de los problemas científicos y técnicos, por muy especializados y abstractos que puedan llegar a ser. Acabó rememorando la extraña mezcla de libros que había en su casa, cuando era niño, que “han sido de enorme valor para orientar sus investigaciones en robots cognitivos y en la construcción de un prototipo de robot interactivo para el juego del "veo-veo", que es capaz de integrar la percepción visual con el uso de un lenguaje simbólico, apoyándome en la concepción wittgensteiniana del lenguaje como imagen del mundo, que pude medio descubrir en aquellos lejanos años merced a mi padre”.

Las viviendas de los madrileños podrían climatizarse con agua subterránea de forma sostenible

Aprovechar las aguas subterráneas de Madrid, que a dos mil metros están a 80 grados, para calentar viviendas sería uno de los usos posibles del acuífero terciario detrítico situado bajo la capital. Pero las trabas administrativas, entre otras cosas, desalientan a los inversores del que sería un sistema sostenible y controlable de un recurso hídrico poco aprovechado, sobre el que todavía falta mucho por conocer, como puso de relieve la sesión “El agua en el capital natural”, organizada por la Real Academia de Doctores de España (RADE).

Presidida por el titular de la corporación, Jesús Álvarez Fernández-Represa, la sesión, primera de las tres programadas sobre los problemas del agua, fue presentada y moderada por Manuel Ramón Llamas Madurga, Académico de Número de la Sección de Ciencias Experimentales, de la RADE, reputado experto en la materia, quien resaltó la importancia de este acuífero, con sus más de tres mil metros de espesor, y anunció que, aunque habían sido expresamente convocados, tanto el Canal de Isabel II como la Confederación Hidrográfica del Tajo habían declinado la invitación.

El agua forma parte del concepto de capital natural, el conjunto de reservas limitadas de recursos naturales, renovables y no renovables, como el suelo, el aire y todos demás elementos de los que depende la seguridad y bienestar del ser humano, indicó Carlos del Álamo Jiménez, Presidente del Instituto de la Ingeniería de España.

La idea de capital natural surgió hace menos de veinte años, como alternativa a las políticas ambientales aplicadas por los dos grandes sistemas ideológicos del siglo XX: el socialista y el liberal. Los instrumentos de planificación e intervencionismo público aplicados por ambas posiciones han resultado, en el caso del primero, desastrosos, y en el del segundo, claramente ineficiente, precisó Del Álamo que, como ejemplo, añadió que “sería más sencillo movilizar a los casi cuatro millones de propietarios de los montes para que se preocupen de su limpieza y conservación, que el gasto en sistemas antiincendios”.

Otra propuesta para conservar la naturaleza

La propuesta del capital natural es enfocar el uso y gestión de los recursos naturales dentro de la economía de mercado para superar ineficiencias, utilizando la misma terminología y metodología de trabajo del sector económico-financiero, aplicado a la conservación de la naturaleza. El cambio conceptual requiere invertir en naturaleza para promover el desarrollo. “Invertir en infraestructura verde es tan necesario o útil como hacerlo en cualquier otra infraestructura, pero se requiere rentabilidad, no solo económica, sino social, reputacional o cultural”, advirtió el ponente. Se requiere, a la vez, introducir otros conceptos, como los servicios ambientales, e incluir sus cifras en la contabilidad nacional. La UE ya ha incorporado la idea de capital natural a sus políticas, y está invitando al capital privado a participar en la conservación de la naturaleza; y la ONU hablaba, en 2005, de la evaluación de los ecosistemas y clasificaba en cuatro estos servicios: de soporte, de provisión, de regulación y culturales.

Tras entrar en detalle en las dificultades de evaluación de los ecosistemas y los servicios medioambientales, Del Álamo apuntó que el Ministerio de Agricultura, Pesca, Alimentación y Medio Ambiente ha empezado a analizar la forma de compensar a los propietarios de montes, que benefician los ecosistemas sin recibir nada a cambio. Por otra parte, una proposición no de ley aprobada este año, en el Congreso de los Diputados, pretende crear un fondo forestal nacional para compensar a los titulares de montes que generan servicios ambientales con una gestión sostenible; y, además, el Instituto Nacional de Estadística trabaja ya para incorporar al PIB, en 2030, los datos sobre la riqueza natural de España.

Aludió Del Álamo a que la calidad y cantidad del agua que consumimos los madrileños depende del estado de conservación de los bosques de la sierra; por lo que destinar, por ejemplo, un céntimo por metro cúbico para garantizar la conservación de esos montes, aseguraría la calidad del recurso y compensaría la labor de los propietarios de sus bosques, que no reciben nada por el beneficio que generan a los demás.

Madrid, sobre agua edificada

Los orígenes de Madrid y gran parte de su historia están ligados a sus aguas subterráneas, a diferencia de otras grandes capitales que se han desarrollado a ambos lados de las riberas de sus ríos, planteó Pedro Martínez Santos, profesor titular de la Universidad Complutense. Se cree, prosiguió, que el origen de Madrid fue un pequeño asentamiento visigodo en lo que sería hoy la plaza de Puerta Cerrada, cerca del Palacio Real, porque era el nacimiento de un arroyo que coincide con la calle de Segovia y fluye hacia el Manzanares. Más tarde, los musulmanes construyeron unas fortaleza militar en la misma zona.

Desde siempre, los madrileños han ignorado el Manzanares, por sus fuertes estiajes en verano y peligrosas crecidas en invierno. Como proclama la divisa de su escudo de armas, la ciudad se edificó sobre piedra de pedernal que cubría las aguas del acuífero detrítico, almacenadas en lentejones de arena imbricados en una matriz arcillosa, afirmó Martínez. La influencia del agua en la toponimia madrileña es enorme. Las mayras, una técnica de captación de aguas subterráneas por pozos horizontales, desarrollada en Persia, es el término que parece dar origen al nombre de la ciudad por deformación de mayrat, matrice, matriz, Madrid: “lugar donde abundan las mayras, o canales subterráneos de agua”. E, incluso, el vocablo persa original, Qanat, es el germen de canal, cántaro, caño, cañería, alcantarillado, canillas, canillejas, etc.

En 1750, Madrid contaba con abundantes mayras que abastecían las fuentes repartidas por la ciudad. Cien años después, la población superaba los 200.000 habitantes, y sus 125 kilómetros de galerías de agua subterránea comenzaban a ser insuficientes. El problema alcanzó tal gravedad que Carlos IV llegó a plantearse el traslado de la capitalidad. Pero, tras probar otras opciones, se optó por construir un canal desde el valle del Lozoya, en una obra faraónica para la época, que adoptó el nombre de la reina Isabel II. El agua llegó a la ciudad en 1858, y la población se disparó al coincidir con el ferrocarril y otros avances. La política hídrica española cambió y empezaron a construirse embalses en la sierra. El acuífero, tras la perforación de varios pozos, se utiliza en tiempos de sequía, pero poco más. En cuanto a los vestigios de las mayras, o viajes del agua, Martínez propuso su aprovechamiento con fines turísticos.

Administración y usuarios del acuífero, enfrentados

Juan Atienza Serna, Presidente de la Asociación de Usuarios del Acuífero de Madrid, expresó sus dudas sobre la capacidad de la capital para garantizar el suministro de agua a una población que, de seis millones de habitantes, puede crecer en el futuro hasta los once o doce millones, lo que requerirá medidas para incrementar y racionalizar este recurso.

La captación de aguas subterráneas abastece diariamente a unos dos mil habitantes de una entidad urbanística, que vive una situación de conflicto con la Confederación Hidrográfica del Tajo y el Canal de Isabel II. La Administración, continuó, ha abierto unos dos mil expedientes sancionadores a usuarios de aguas subterráneas, lo que indica que “algo funciona mal; o los usuarios son unos desaprensivos, o las normas y los sistemas de control no son correctos”. Por eso, subrayó, “es necesario que los usuarios se agrupen y colaboren conjuntamente con la Administración para establecer un sistema sostenible y factible que satisfaga a todos”.

La asociación ha rebatido un informe de un alto funcionario de la confederación que ponía en cuestión el derecho de las urbanizaciones a usar el acuífero. “Lo que les molesta es que lo usemos procedente de un proveedor que no les gusta, porque no tendríamos problemas si lo hiciéramos con otro”, mantuvo el ponente. Lo que está en cuestión es quién cobra por el servicio. Según Atienza, es ético usar este valioso recurso porque está disponible en beneficio de la población, para usos legítimos y de forma controlada y racional. “No sé por qué se puede pensar que regar un campo deportivo, un jardín o usar el agua para fines recreativos es menos ético que se evapore en otro sitio, se use en otro riego o que quede en el acuífero sin usarse”. Para Atienza, este problema es una muestra más de la confrontación entre lo público y lo privado, que se manifiesta en otros ámbitos, como la educación o la sanidad

Que se pretenda imponer a estos usuarios una tasa para contribuir al sostenimiento de los costes fijos del sistema de distribución de agua del Canal de Isabel II, no les preocupa, según Atienza; pero cree que habría que analizar los costes del suministro general, porque “lo absurdo es tener el agua aquí, ir a captarla a otro sitio y traerla hasta este mismo lugar, cuando ese coste se puede ahorrar”.

Aprovechamiento geotérmino, el gran desconocido

En último lugar, Celestino García de la Noceda, ingeniero de minas y miembro del Instituto Geológico y Minero de España, aseguró que no venía a hablar de agua, sino de energía, de geotermia, algo desconocido en general, cuando no es más que una surgencia de agua termal con una cierta temperatura.

Hay cursos de agua geotérmica que pueden producir electricidad y, en otros casos, solo calor. En los años 70 del siglo pasado, una compañía encontró agua a más de 30 grados a 600 metros de profundidad, y se sabe que es posible aprovechar las aguas subterráneas que están a unos dos mil metros, con una temperatura de 80 grados, para calentar viviendas directamente. Los resultados de los sondeos fueron óptimos, pero en esas fecha surgió el gas natural, que es un competidor desigual, ya que permite hacer instalaciones individuales, mientras la geotermia requiere instalaciones centralizadas.

La aparición de la bomba de calor para climatizar viviendas, abrió la puerta a recursos de muy baja temperatura, ya que aprovecha la estabilidad térmica del subsuelo poco profundo para suministrar frío y calor. Solo a diez metros o quince metros de profundidad la estabilidad térmica es constante, dijo García de la Noceda. Existen más de cien instalaciones geotérmicas en Madrid, con sistemas verticales cerrados y sistemas termoactivados, entre otros. Pero su uso no se ha generalizado porque los inversores tiene que emplear dos años para hacer los trámites correspondientes ante la Confederación Hidrográfica del Tajo, “y no suele haber ningún inversor que se meta en este asunto a tan largo plazo, aunque es el más eficiente, utiliza una energía renovable y controlable que funciona veinticuatro horas al día todos los días del año, y resulta plenamente sostenible”, concluyó el ponente.

Durante el coloquio, el doctor Llamas Madurga comentó que, mientras el resto de comunidades autónomas cuentan con un comisario o un director general del agua con funciones razonables, en la Comunidad de Madrid este cargo no pinta nada, porque el Gobierno ha cedido todas las competencias al Canal de Isabel II, cuyos objetivos son distintos de la protección de este recurso. Sin embargo, reconoció que, en algunas cosas, como la gestión de las estaciones depuradoras que funcionan muy mal en el resto del país, las del Canal lo hacen bastante bien. El moderador añadió otro comentario preocupante: probablemente, la línea 7 del Metro se tendrá que cerrar porque no se ha tenido en cuenta adecuadamente el estudio del acuífero, y se ha excavado el túnel a través de una roca soluble de evaporitas que está “chupando” agua al Jarama, que, a pesar de ser dulce, al disolverse el terreno, se está salinizando hasta tres veces más que el agua marina; y ya han aparecido grietas en edificios.

Los madrileños ignoran que podrían climatizar sus casas con agua subterránea de forma sostenible

· La bomba de calor permite climatizar viviendas aprovechando la estabilidad térmica del subsuelo a diez metros o quince metros de profundidad, afirma Celestino García de la Noceda, del Instituto Geológico y Minero de España
· Según el doctor Llamas Madurga, no haber tenido en cuenta el estudio del acuífero detrítico de Madrid podría obligar a cerrar la línea 7 del Metro
· Hay unos dos mil expedientes sancionadores abiertos “porque algo funciona mal”, indicó el presidente de la Asociación de Usuarios del Acuífero de Madrid
· El acuífero, tras la perforación de varios pozos, se utiliza en tiempos de sequía, pero poco más, aseguró Pedro Martínez Santos, profesor titular de la Universidad Complutense

- Pie de foto.- Celestino García de la Noceda, Pedro Martínez Santos, Manuel Ramón Llamas Madurga, Jesús Álvarez Fernández-Represa, presidente de la RADE, Carlos del Álamo Jiménez y Juan Atienza Serna.

MADRID (26-06-17).- Aprovechar las aguas subterráneas de Madrid, que a dos mil metros están a 80 grados, para calentar viviendas sería uno de los usos posibles del acuífero terciario detrítico situado bajo la capital. Pero las trabas administrativas, entre otros inconvenientes, desalientan a los inversores del que sería un sistema sostenible y controlable de un recurso hídrico poco aprovechado, sobre el que todavía falta mucho por conocer, como puso de relieve la sesión “El agua en el capital natural”, organizada por la Real Academia de Doctores de España (RADE).

Celestino García de la Noceda, ingeniero de minas y miembro del Instituto Geológico y Minero de España, aseguró que no iba a hablar de agua, sino de energía, de geotermia, algo desconocido en general, cuando no es más que una surgencia de agua termal con una cierta temperatura. Hay cursos de agua geotérmica, dijo, que pueden producir electricidad y, en otros casos, solo calor. En los años 70 del siglo pasado, una compañía encontró agua a más de 30 grados a 600 metros de profundidad, y se sabe que es posible aprovechar las aguas subterráneas que están a unos dos mil metros, con una temperatura de 80 grados, para calentar viviendas directamente. Los resultados de los sondeos fueron óptimos, pero en esas fecha surgió el gas natural, que es un competidor desigual, ya que permite hacer instalaciones individuales, mientras la geotermia requiere instalaciones centralizadas.

La aparición de la bomba de calor para climatizar viviendas, abrió la puerta a recursos de muy baja temperatura, ya que aprovecha la estabilidad térmica del subsuelo poco profundo para suministrar frío y calor. Solo a diez metros o quince metros de profundidad la estabilidad térmica es constante, añadió García de la Noceda. Existen ya más de cien instalaciones geotérmicas en Madrid, con sistemas verticales cerrados y termoactivados, entre otros. Pero su uso no se ha generalizado porque los trámites correspondientes ante la Confederación Hidrográfica del Tajo llevan no menos de dos años, “y no suele haber ningún inversor que se meta en este asunto a tan largo plazo, aunque es el más eficiente, utiliza una energía renovable y controlable que funciona veinticuatro horas al día todos los días del año, y resulta plenamente sostenible”, concluyó el ponente.

Criticas al Canal de Isabel II

En el inicio de la sesión, primera de las tres programadas por la RADE sobre los problemas del agua, su presentador y moderador Manuel Ramón Llamas Madurga, miembro de número de la academia y reputado experto en la materia, resaltó la importancia de este acuífero, con sus más de tres mil metros de espesor, y anunció que, aunque habían sido expresamente convocados, tanto el Canal de Isabel II como la Confederación Hidrográfica del Tajo habían declinado la invitación.

Durante el coloquio, el doctor Llamas Madurga comentó que, mientras el resto de comunidades autónomas cuentan con un comisario o un director general del agua con funciones razonables, en la Comunidad de Madrid este cargo no pinta nada, porque el Gobierno ha cedido todas las competencias al Canal de Isabel II, cuyos objetivos son distintos de la protección de este recurso. Sin embargo, reconoció que, en algunas cosas, como la gestión de las estaciones depuradoras, que funcionan muy mal en el resto del país, las del Canal lo hacen bastante bien.

El moderador añadió que, probablemente, la línea 7 del Metro se tendrá que cerrar porque no se ha tenido en cuenta adecuadamente el estudio del acuífero, y se ha excavado el túnel a través de una roca soluble de evaporitas que está “chupando” agua al Jarama, que, a pesar de ser dulce, al disolverse el terreno, se está salinizando hasta tres veces más que el agua marina; y ya han aparecido grietas en edificios.

Administración y usuarios del acuífero, enfrentados

La captación de aguas subterráneas abastece diariamente a unos dos mil habitantes de una entidad urbanística, que vive una situación de conflicto con la Confederación Hidrográfica del Tajo y el Canal de Isabel II, manifestó Juan Atienza Serna, Presidente de la Asociación de Usuarios del Acuífero de Madrid. La Administración, continuó, ha abierto unos dos mil expedientes sancionadores a usuarios de aguas subterráneas, lo que indica que “algo funciona mal; o los usuarios son unos desaprensivos, o las normas y los sistemas de control no son correctos”. Por eso, subrayó, “es necesario que los usuarios se agrupen y colaboren conjuntamente con la Administración para establecer un sistema sostenible y factible que satisfaga a todos”.

Su asociación, agregó, ha rebatido un informe de un alto funcionario de la confederación que ponía en cuestión el derecho de las urbanizaciones a usar el acuífero. “Lo que les molesta es que lo usemos procedente de un proveedor que no les gusta, porque no tendríamos problemas si lo hiciéramos con otro”, mantuvo el ponente. Lo que está en cuestión es quién cobra por el servicio. Según Atienza, es ético usar este valioso recurso porque está disponible en beneficio de la población, para usos legítimos y de forma controlada y racional. “No sé por qué se puede pensar que regar un campo deportivo, un jardín o usar el agua para fines recreativos es menos ético que se evapore en otro sitio, se use en otro riego o que quede en el acuífero sin usarse”. Para Atienza, este problema es una muestra más de la confrontación entre lo público y lo privado, que se manifiesta en otros ámbitos, como la educación o la sanidad.

Que se pretenda imponer a estos usuarios una tasa para contribuir al sostenimiento de los costes fijos del sistema de distribución de agua del Canal de Isabel II, no les preocupa, según Atienza; pero cree que habría que analizar los costes del suministro general, porque “lo absurdo es tener el agua aquí, ir a captarla a otro sitio y traerla hasta este mismo lugar, cuando ese coste se puede ahorrar”.

Madrid, sobre agua edificada

Los orígenes de Madrid y gran parte de su historia están ligados a sus aguas subterráneas, a diferencia de otras grandes capitales que se han desarrollado a ambos lados de las riberas de sus ríos, planteó Pedro Martínez Santos, profesor titular de la Universidad Complutense. Se cree, prosiguió, que el origen de Madrid fue un pequeño asentamiento visigodo en lo que sería hoy la plaza de Puerta Cerrada, cerca del Palacio Real, porque era el nacimiento de un arroyo que coincide con la calle de Segovia y fluye hacia el Manzanares. Más tarde, los musulmanes construyeron unas fortaleza militar en la misma zona.

Desde siempre, los madrileños han ignorado el Manzanares, por sus fuertes estiajes en verano y peligrosas crecidas en invierno. Como proclama la divisa de su escudo de armas, la ciudad se edificó sobre piedra de pedernal que cubría las aguas del acuífero detrítico, almacenadas en lentejones de arena imbricados en una matriz arcillosa, afirmó Martínez. La influencia del agua en la toponimia madrileña es enorme. Las mayras, una técnica de captación de aguas subterráneas por pozos horizontales, desarrollada en Persia, es el término que parece dar origen al nombre de la ciudad por deformación de mayrat, matrice, matriz, Madrid: “lugar donde abundan las mayras, o canales subterráneos de agua”. E, incluso, el vocablo persa original, Qanat, es el germen de canal, cántaro, caño, cañería, alcantarillado, canillas, canillejas, etc.

En 1750, Madrid contaba con abundantes mayras que abastecían las fuentes repartidas por la ciudad. Cien años después, la población superaba los 200.000 habitantes, y sus 125 kilómetros de galerías de agua subterránea comenzaban a ser insuficientes. El problema alcanzó tal gravedad que Carlos IV llegó a plantearse el traslado de la capitalidad. Pero, tras probar otras opciones, se optó por construir un canal desde el valle del Lozoya, en una obra faraónica para la época, que adoptó el nombre de la reina Isabel II. El agua llegó a la ciudad en 1858, y la población se disparó al coincidir con el ferrocarril y otros avances. La política hídrica española cambió y empezaron a construirse embalses en la sierra. El acuífero, tras la perforación de varios pozos, se utiliza en tiempos de sequía, pero poco más. En cuanto a los vestigios de las mayras, o viajes del agua, Martínez propuso su aprovechamiento con fines turísticos.

Capital natural, otra propuesta para conservar la naturaleza

Por su parte, Carlos del Álamo Jiménez, Presidente del Instituto de la Ingeniería de España, señaló que el agua forma parte del concepto de capital natural, el conjunto de reservas limitadas de recursos naturales, renovables y no renovables, como el suelo, el aire y todos demás elementos de los que depende la seguridad y bienestar del ser humano. La idea de capital natural surgió hace menos de veinte años, como alternativa a las políticas ambientales aplicadas por los dos grandes sistemas ideológicos del siglo XX: el socialista y el liberal. Los instrumentos de planificación e intervencionismo público aplicados por ambas posiciones han resultado, en el caso del primero, desastrosos, y en el del segundo, claramente ineficiente, precisó Del Álamo que, como ejemplo, añadió que “sería más sencillo movilizar a los casi cuatro millones de propietarios de los montes para que se preocupen de su limpieza y conservación, que el gasto en sistemas antiincendios”.

La propuesta del capital natural es enfocar el uso y gestión de los recursos naturales dentro de la economía de mercado para superar ineficiencias, utilizando la misma terminología y metodología de trabajo del sector económico-financiero, aplicado a la conservación de la naturaleza. El cambio conceptual requiere invertir en naturaleza para promover el desarrollo. “Invertir en infraestructura verde es tan necesario o útil como hacerlo en cualquier otra infraestructura, pero se requiere rentabilidad, no solo económica, sino social, reputacional o cultural”, advirtió el ponente. Se requiere, a la vez, introducir otros conceptos, como los servicios ambientales, e incluir sus cifras en la contabilidad nacional. La UE ya ha incorporado la idea de capital natural a sus políticas, y está invitando al capital privado a participar en la conservación de la naturaleza; y la ONU hablaba, en 2005, de la evaluación de los ecosistemas y clasificaba en cuatro estos servicios: de soporte, de provisión, de regulación y culturales.

En la línea del capital natural, España ya ha tomado algunas iniciativas, según Del Álamo. El Ministerio de Agricultura, Pesca, Alimentación y Medio Ambiente ha empezado a analizar la forma de compensar a los propietarios de montes, que benefician los ecosistemas sin recibir nada a cambio; una proposición no de ley aprobada este año, en el Congreso de los Diputados, pretende crear un fondo forestal nacional para compensar a los titulares de montes que generan servicios ambientales con una gestión sostenible; y el Instituto Nacional de Estadística trabaja ya para incorporar al PIB, en 2030, los datos sobre la riqueza natural de España.

Para Antonio Lamela, la RADE era la academia más adecuada para sus planteamientos superdisciplinares

Como el mismo Antonio Lamela Martínez expresó en su discurso de ingreso, la Real Academia de Doctores de España (RADE) era la más adecuada, entre las de su categoría, para un planteamiento superdisciplinar de la envergadura que él pretendía proponer, como indiscutible campo de encuentro de estudios y saberes interdisciplinarios que alberga en su seno especialistas de tan diferentes ramas del conocimiento humano, señaló el Presidente de la RADE, Jesús Álvarez Fernández-Represa, al abrir la sesión in memoriam por el prestigioso arquitecto y urbanista, que ingreso en la corporación en mayo de 1998.

Desde los primeros momentos, las ideas de Lamela fueron más allá de lo urbanístico, subrayó Juan Gómez y González de la Buelga, Académico Supernumerario y arquitecto, lo que le llevó a publicar, en 2007, un voluminoso trabajo en dos tomos sobre geoísmo y cosmoísmo, nuevas disciplinas inventadas por Lamela, como decía Santiago Grisolía en el prólogo, que pretenden contribuir a ordenar territorialmente el planeta en su conjunto. Una síntesis, agregó Gómez, de urbanismo a escala planetaria, que preconizaban el término ecológico, cuando todavía no existía, que Lamela definía como “naturalismo”, y la arquitectura sostenible.

Recorrió el ponente las realizaciones de Lamela, desde sus modestos inicios, como el motel El Hidalgo, en Valdepeñas, o el complejo residencial La Nogalera, en Torremolinos; el edificio de la calle O’Donnell, 34, donde montó su estudio en dos plantas; el conjunto de viviendas de alto nivel Galaxia, el Castellana, 115 y el Pirámides o el Hotel Meliá Castilla. Advirtió Gómez que las Torres de Colón despertaron su curiosidad por su original sistema constructivo, sin soportes exteriores, en el la estructura cuelga de la coronación del edificio. Después vino la remodelación del estadio Santiago Bernabéu, la Terminal 4 de Barajas y, como consecuencia de la repercusión internacional de sus obras, su actividad se expandió por el mundo. Con su famosa corbata sin nudo, siempre sonriente, fue un infatigable trabajador que obtuvo diversos premios españoles y extranjeros, entre ellos, la Medalla de Oro al Mérito en el Trabajo, en 2005, terminó Gómez.

Visión multidisciplinar y holística

Para Manuel Ramón Llamas Madurga, Académico de Número de la Sección de Ciencias Experimentales y geólogo, Lamela manejaba palabras que no estaban relacionadas directamente con su actividad de arquitecto: ecología y medio ambiente. Su propósito era tratar los temas ecológicos con una visión multidisciplinar u holística, y no solo respecto a nuestro planeta, geoísmo, sino también en el conjunto del cosmos, cosmoísmo.

Pero se ocupó también de otros problemas concretos, como el trasvase Tajo-Segura, del que fue enérgico y constante enemigo. Fue en este ámbito en el que Llamas tuvo mayor relación con Lamela, sin que sus diferentes posiciones impidieran el frecuente cambio de impresiones entre ambos. Lamela participó muy activamente, incluso, en el Observatorio del Agua, de la Fundación Botín, que dirigía Llamas, para exponer su oposición sobre el trasvase.

Otra faceta de Lamela era su notable interés por el buen uso del idioma castellano, “o mejor dicho, español, como siempre me solía advertir cuando yo lo denominaba castellano”, añadió Llamas, antes de concluir diciendo que, en su opinión, las convicciones de Lamela “estaban basadas en su profunda fe católica, de la que no alardeaba nunca”.

Los consejos paternos, su mejor referencia

La mejor referencia profesional y personal para Lamela eran los consejos de su padre, un industrial del sector harinero-panadero, a cuya inteligencia práctica atribuía el éxito que había acompañado su carrera desde sus inicios, afirmó Luis Antonio Fernández-Galiano Ruiz, Académico de Número de la Sección de Arquitectura y Bellas Artes y arquitecto.

Fernández-Galiano tuvo el privilegio de organizar la última entrevista que se hizo a Lamela, y redactó un lacónico perfil profesional, en el que recogía la vívida memoria que el homenajeado guardaba de los consejos de su progenitor. Todavía estudiante, y estimulado por su padre que actuó como socio capitalista, Lamela emprendió la aventura de levantar una obra de la que controló todas las fases del proceso: desde la búsqueda del solar y el diseño, hasta la construcción y venta del inmueble, cuyo resultado fue, apuntó Fernández-Galiano, “quizá su mejor trabajo: el racional y grande edificio de viviendas de O’Donnell, que serviría de laboratorio de ensayos para toda su obra posterior”.

“Necesitamos historias de personas como Antonio, que nos recuerden donde estamos y hacia donde vamos, que iluminen nuestra propia existencia”, manifestó Luis Irastorza, ingeniero de Caminos, Canales y Puertos, al comenzar su intervención. Lamela, indicó era una de esas personas convencidas de que existe algo más allá de la muerte, basado en razonamiento cosmológico, mucho más que antropocéntrico, porque el universo tiene una finalidad, una naturaleza teleológica creada por un ser superior, y el hombre, mediante el uso pleno de sus facultades, como su libertad, tiene mucho que aportar a su cumplimiento.

De las distintas formas con que el hombre puede trascender más allá de su muerte, se refirió Irastorza a la que considera más relevante en el caso de Lamela: sus ideas. Citó sus libros: Cosmoísmo y geoísmo (1776), Del idioma español y su futuro (2008), El agua en España (2014) y Estrategias para la Tierra y el espacio: Geoísmo y Cosmoísmo, un tratado que dirigió con varios autores muy cualificados. Participó en la Cumbre de Rio de 1992, donde impulsó el movimiento medioambiental, y fue socio fundador del Club Español de la Energía, un foro de debate muy activo sobre el desafío del calentamiento global que obliga a la descarbonización de la economía.

No a los trasvases entre cuencas

Seis son las ideas más relevantes de Lamela, según Fernández-Galiano: la preocupación profunda por compatibilizar el mantenimiento de un medioambiente adecuado con el progreso técnico, la confianza profunda en el progreso, el conocimiento científico, la tecnología y la racionalidad del hombre; la necesidad de abordar los problemas de la humanidad desde una perspectiva holística y multidisciplinar, la doble naturaleza material y espiritual del hombre, la necesidad de colaborar en el desarrollo económico de los países emergentes, y la existencia de soluciones al problema del agua en determinadas regiones de España sin recurrir a trasvases entre cuencas.

Ante las tensiones entre civilizaciones y culturas, Lamela propugnaba respeto y diálogo desde el conocimiento profundo de nuestra propia tradición y una importante apertura hacia las otras culturas, dijo el orador. Defendía una acción concertada y holística para luchar contra el calentamiento global, aunque tenía serias dudas sobre sus causas antropogénicas. Para él, la única forma de abordar este problema es con una aproximación holística y multidisciplinar, con altura de miras y solidaridad entre los pueblos y con las futuras generaciones.

Respecto al debate sobre el agua, el ponente enunció las soluciones que proponía Lamela: utilizar racionalmente las aguas subterráneas en cada cuenca, desalar agua de mar, optimizar el consumo, disminuir las pérdidas de distribución y reutilizar el agua regenerada. Los trasvases le parecían ilegales, improcedentes e hipotecantes.

El también arquitecto Rafael de La-Hoz Castanys, cuyo padre avaló la candidatura de Lamela a la RADE y contestó su discurso de ingreso, aseguró haber dispuesto de una privilegiada atalaya familiar desde la que asistió a la trayectoria de un hombre único, que “hizo mucho y muy bueno”. Habló De La-Hoz de cómo su propia obra arquitectónica dio forma a la personalidad de Lamela. Proyectó sus edificios con una única herramienta y un único principio, la integridad, entendida como aquella característica de la obra que le da todo lo necesario para ser útil. “La obra no debe ser perfecta, le basta con ser integradora”, dijo.

Integrar teoría y vida

Lo que le hizo único, continuó De La-Hoz, fue su ambición de integrar en su visión holística a los seres humanos y sus estructuras asociativas como un elemento más. Por eso estuvo tan interesado en el urbanismo y la urbanidad. Él mismo evolucionó aprendiendo lo básico y fundamental de su teoría integradora, para adaptar su personalidad hasta hacerla integrante de su propia teoría. “No había en él ámbitos propios ni distinción entre lo público y lo privado. En él no podía darse la impostura, la falsa apariencia o la mentira”.

El mejor ejemplo de esta fusión entre teoría y vida fue su actitud ante el lenguaje, agregó. “Era consciente de que el lenguaje es el nexo expresivo que hace comprensible lo que pensamos y hacemos. Nada como la lengua nos habla tanto de nosotros mismos. Todo el mundo tiene un lenguaje y un léxico para cada ocasión diferente. Todos intratraducimos y hablamos diferente en público y en privado. Todos, menos Antonio. Por eso para él, los pantanos eran embalses, los peces no se pescaban, sino que se capturaban y los clínex eran toallitas humectadas”.

Rescató De La-Hoz el aforismo de Lichtenberg: “Los humanos somos tan inquietos que seguimos dando una vuelta al Sol cada año después de muertos, para pensar que Lamela sigue dando vueltas alrededor del Sol, y propuso a los circunstantes seguir su ejemplo.

Finalmente, Carlos Lamela, presentó un video conmemorativo, con imágenes de la vida de su padre, y dio las gracias a los asistentes, al tiempo que rememoraba sus palabras sobre la necesidad de adecuar el urbanismo a nuestros tiempos, a nuestra sociedad de hoy y de mañana, y no de la de ayer. “No se puede vivir de la herencia de la historia, hay que hacer examen de conciencia y meditar seriamente, sin soluciones rutinarias, sino con las idóneas y sinceras”.

El Studium Generale de Alcalá, creado por Sancho IV en 1293, antecedente histórico de la RADE

La Real Academia de Doctores de España (RADE) ha presentado el libro de su Académico de Número Eugenio Ull i Pont, titulado Del studium generale de Alcalá a la Real Academia de Doctores de España. 1293-2017, que remonta setecientos años atrás los orígenes de las universidades conocidas como cisnerianas: Complutense, Central y de Alcalá y, consecuentemente, de la propia RADE.

Al abrir el acto de presentación, el Presidente de la corporación, Jesús Álvarez Fernández-Represa, señaló que el autor del libro lleva 40 años en la RADE, donde ha desempeñado diversos cargos: Vicepresidente y Secretario de la Sección de Derecho, miembro de la Junta de Gobierno, Bibliotecario y Secretario General. Siempre ha tenido enorme interés por la historia de la institución, sobre la que ya escribió Claustro Extraordinario de Doctores: La Real Academia de Doctores de España, y, consecuencia de su trabajo de investigación de los tres o cuatro últimos años es este libro, cuya edición ha patrocinado la Fundación Juan-Miguel Villar Mir. Por todo ello, terminó Álvarez, la RADE se enorgullece de tener a Ull i Pont entre sus miembros.

Juan-Miguel Villar Mir, Académico de Honor de la RADE y miembro del Patronato de su Fundación Liberade, que además pertenece a otras tres reales academias, manifestó al iniciar sus palabras que estas entidades tienen, al igual que las universidades, tres obligaciones: enseñar, investigar, y comunicar. La última de ellas, prosiguió, encaja muy bien con el libro de Ull, ya que no es mucho el tiempo que dedicamos a conocer los antecedentes de las reales academias ni de las universidades.

Agregó Villar Mir que no conocía a Ull, por no haber coincido con él en su época de mayor actividad, pero, después de haber tenido la oportunidad de conocer el contenido de su libro acogió su propuesta de editarlo a través de su fundación, con la que dedica el 0,7 por ciento de los beneficios de sus empresas a fines culturales, entre otros. Y concluyó recomendando a los asistentes que lo lean.

Un origen histórico común

María Nagore Ferrer, Vicerrectora de Extensión Universitaria, Cultura y Deporte, de la Universidad Complutense, mostró su satisfacción por la oportunidad que le había brindado sustituir a su rector, Carlos Andradas, que no pudo acudir al acto, para sumergirse en este libro interesantísimo en el que ha descubierto que el origen común de las dos universidades cisnerianas hermanas, Complutense y Alcalá, va más atrás del cardenal Cisneros, del que se conmemora actualmente el 500 aniversario de su muerte, y llega hasta Sancho IV, el Bravo, de Castilla, en el siglo XIII, así como la vinculación que existe entre las instituciones universitarias y la RADE.

Agregó la Vicerrectora que el traslado de la universidad cisneriana a Madrid, en 1836, para constituir la denominada Central, se encontró con bastantes problemas y dificultades, ya que los documentos de la época “consideraban que la capital era un foco de dispendios, diversiones y corrupción de costumbres”. La Central, que era la única que en principio otorgaba el grado de doctor, llegó a contar con un 40 por ciento de los universitarios de toda España, al acoger a 2.400 alumnos de los 6.000 existentes en todo el país; algo muy lejano del millón cuatrocientos mil estudiantes actuales.

Nagore finalizó su intervención proponiendo que las universidades huyan de su tendencia a una endogamia que les lleva a competir por conseguir más alumnos que las demás y al delirio de los ránquines. “Lo importante es que colaboremos para crear cultura e impulsar el avance del conocimiento, para hacer de España una nación que destaque por su nivel cultural e investigador; y conocer nuestra historia nos ayudará a ello”.

En el 40 aniversario de la Universidad de Alcalá

Se conoce muy poco del Studium Generale, apuntó el Rector de la Universidad de Alcalá de Henares, Fernando Galván Reula, tras calificar la obra de Ull de amena, didáctica y bien documentada. Sabemos, continuó, que Cisneros se formó en aquel Studium antes de ir a Salamanca y Roma. Cuando volvió a Castilla, fue capellán de la catedral de Sigüenza y tuvo mucha relación con la Universidad San Antonio de Porta Coeli, creada en 1489, en aquella ciudad; diez años antes de la bula del papa Alejandro VI, que permitía crear la Complutense en Alcalá.

Hasta su cierre, en 1824, San Antonio de Porta Coeli mantuvo una estrecha relación con la universidad cisneriana, y aquella vinculación histórica entre Guadalajara y Alcalá se reanudó cuando volvieron ocuparse los edificios universitarios alcalaínos en 1977, con la fundación de la Universidad de Alcalá. La edición del libro, indicó el Rector, resulta muy oportuna al coincidir, no solo con el quinto centenario de la muerte del fundador de la Complutense, sino también con el cuarenta aniversario del reencuentro de Alcalá con los estudios universitarios.

Galván resaltó que su institución es la única universitaria galardonada con la Medalla de Honor de la Real Academia de Bellas Artes de San Fernando por la preservación de un patrimonio monumental y cultural; y destacó que las dos universidades cisnerianas han tenido una brillante proyección en América desde el siglo XVI. La primera universidad americana, la actual Autónoma de Santo Domingo, se instauró tomando como base las constituciones de la institución alcalaína, fenómeno que se repitió en el resto de países hispanoamericanos. Actualmente, dijo, las dos universidades madrileñas gozan de extraordinario prestigio y mantienen solidas alianzas con las instituciones de aquel continente. Terminó Galván agradeciendo al doctor Ull que haya puesto de relieve este legado en su obra.

Mayor colaboración entre la RADE y las universidades

El autor, que al tomar la palabra advirtió que había pensado no intervenir, pero finalmente quería decir algunas cosas, subrayó que la magnífica presentación del libro se debía a otra persona, en alusión al doctor Villar Mir, y agradeció la actitud de algunos compañeros de la academia que estaban dispuesto a contribuir, si hubiera sido necesario, a la edición de la obra. Sobre el tamaño de la tipografía, que ya había apreciado María Nagore, dijo que había buscado una letra que hiciera asequible la lectura, y, a continuación, dio las gracias a la persona que había librado el texto de toda incorrección ortográfica. Del contenido, siguió Ull, le había preocupado “llegar a todos con la claridad de la lengua española, que bien dicha, ya nos ilustra con la elocuencia de su vocabulario”. Por ello, el volumen está escrito con palabras sencillas y frases cortas.

Tras asegurar que había querido ser cuidadoso con las citas que le han sido regaladas con otros, relató que en la parte relativa al periodo inicial del privilegio concedido por Sancho IV, retiró el capítulo que ya tenía escrito, para sustituirlo por el que le había cedido Santiago Aguadé, profesor emérito de Alcalá, especialista en la materia.

Expresó Ull su deseo de que las dos universidades presentes y la RADE tengan mayor colaboración, y sean impulso y estímulo para otros sectores de la vida española, en el objetivo de ayudar al progreso general. Y todo ello abierto a colaborar con otras instituciones. Firme europeísta, aludió al momento que vive Europa para asegurar que va desorientada y camino del fracaso, porque se ha subvertido la idea inicial: “Es una Europa que va por derroteros burocráticos que no llevan a nada positivo”. Sobre el quinto centenario de Cisneros, sugirió que quizá mereciera un acto conmemorativo, para el que todavía hay tiempo, puesto que su muerte se produjo el 8 de noviembre de 1517.

Finalmente, explicó que quiso que constaran en los apéndices del libro la Fundación Villar Mir y los Estatutos de la RADE, pero no el Reglamento porque, en su opinión, necesita una revisión, aunque también los Estatutos pueden necesitarla. Se mostró opuesto al ingreso de la RADE en el Instituto de España, por el carácter pluridisciplinar de esta academia, y concluyó propugnando la colaboración de esta corporación con la UNED, en cuya fundación intervino él mismo.

Cerró el acto, el Presidente de la academia, quien puso de relieve la estrecha relación de la corporación con las tres universidades presentes en la sesión: Complutense, Alcalá y UNED; dio las gracias al doctor Villar Mir por su contribución al libro, e instó a todos los académicos y, en especial, al Bibliotecario, a sacar a la luz que la mayor parte de la intelectualidad española ha pertenecido a esta institución, como prueban las fichas que guardan los archivos de la RADE, al objeto de completar el trabajo del doctor Ull, con el que la academia está en deuda por su obra.

Aumentan ligeramente las tesis presentadas a los Premios de Investigación 2017 de la RADE

Ha aumentado ligeramente la participación de candidatos en la convocatoria de los Premios de Investigación 2017 de la Real Academia de Doctores de España (RADE), que cuenta con la colaboración de Alcaliber y Laboratorios Ovejero. En la actual edición, se han recibido 438 tesis doctorales, cuatro más que el año pasado, cuando el número de trabajos superó en un 107,6 por ciento los de la convocatoria anterior.

El Premio RADE de Ciencias Experimentales y Tecnológicas encabeza la lista de candidatos, con 134 sobre los 94 del año anterior. En segundo lugar se sitúa el Premio RADE de Ciencias de la Vida y de la Salud, con 113, uno más que en 2016, y en tercera posición, el Premio RADE de Humanidades, con 92, 32 menos en esta ocasión.

En cuarto y quinto lugar se colocan el Premio RADE de Ciencias Económicas, con 31 tesis, y el Premio RADE de Ciencias Jurídicas, con 27, que en la edición de 2016 se convocaron conjuntamente y sumaron 15 trabajos más que en el presente año. A continuación, figuran el Premio Juan Abelló Pascual I del Área de Bioquímica, con 22 tesis, seis más que el año anterior; el Premio Juan Abelló Pascual II de Métodos Analíticos en Bioquímica, con cinco, cuatro más que en la convocatoria precedente, y, finalmente, el Premio Laboratorios Ovejero sobre un tema libre de Microbiología e Inmunología Microbiana, al que han concurrido 14 candidatos, los mismos que el año pasado.

Como establecen las bases de la convocatoria, los participantes deben tener nacionalidad española y haber defendido sus tesis entre el 1 de julio de 2016 y el 14 de julio de 2017, ambos inclusive, además de haber obtenido la calificación de sobresaliente cum laude. Un jurado compuesto por académicos de la RADE decidirá la concesión de los galardones, en una resolución que es inapelable. La resolución del concurso se comunicará directamente a los interesados, y se hará pública en la solemne sesión de apertura del curso 2017-18, en la que se efectuará la entrega de los premios y diplomas correspondientes.

Once investigadores premiados en 2016

En la edición de 2016, once investigadores, seis de ellos mujeres, recibieron los Premios de Investigación de la RADE, que contó igualmente con la participación de Alcaliber y Laboratorios Ovejero. Cuatro de los siete premios convocados tuvieron ganadores ex aequo. El Premio RADE de Humanidades fue para María Teresa Concepción Masip, doctorada por la Universidad de La Laguna, con la tesis Hijos de un dios menor. El enanismo en la época moderna. El caso de España e Italia y su representación en las artes plásticas. Estudio médico e iconográfico, y a Francisco López Muñoz, doctor por la Universidad de Alcalá, con Las sustancias psicotrópicas en los textos cervantinos: tras el rastro del Dioscórides de Andrés Laguna.

El Premio RADE de Ciencias de la Vida y de la Salud lo compartieron María Eulalia Alemany Vilches, doctora por la Universidad de Barcelona, con su tesis Prevalencia del ADN del virus del papiloma humano y distribución específica de tipos en cánceres de cérvix, vulva, vagina, ano, pene y cabeza y cuello, y Luis Nombela Franco, doctorado en la Universidad Autónoma de Madrid, con Implantación percutánea de válvula aórtica en pacientes con estenosis aórtica severa sintomática.

María Teresa Alcolado Chico, con su investigación La entrega vigilada y su impacto en la esfera de los derechos fundamentales y la sociedad globalizada, defendida en la Universidad Complutense, y David Martín Herrera, doctorado por la UNED, con Libertad de expresión, hate speech e incitación directa. Clear and inminent danger desde las perspectivas de la Corte Suprema estadounidense y del Tribunal Europeo de Derechos Humanos, obtuvieron conjuntamente el Premio RADE de Ciencias Jurídicas y Económicas.

Ciencias Experimentales y Tecnológicas

Y sobre otros dos investigadores recayó el Premio RADE de Ciencias Experimentales y Tecnológicas: Diana Bachiller Perea, doctora por la Universidad Autónoma de Madrid, con la tesis Ion – irradiation – induced damage in nuclear materials – case study of a – SiO2 and MgO, y Adrián Barroso Bogeat, doctor por la Universidad de Extremadura, con Formación de óxidos metálicos semiconductores en carbón activado. Caracterización y aplicaciones.

El Premio Juan Abelló Pascual I se adjudicó a Sebastián Jiménez Muñoz, por su tesis Efectos de la acumulación del péptido beta amiloide en tejido cerebral de ratones PS1xAPP modelos de la enfermedad de Alzheimer, defendida en la Universidad de Sevilla.

El Premio Juan Abelló Pascual II correspondió a Neibla Priego Bendeck, doctorada en la Universidad Complutense, con Papel de C3G y p38α en la regulación de la migración, invasión y crecimiento tumoral en carcinoma de colon. Función de fibulina 3. Y, finalmente, Carmen Casal Comendador, doctora por la Universidad Complutense, consiguió el Premio Laboratorios Ovejero, por Diagnóstico de tuberculosis en rumiantes y camélidos: optimización de pruebas de base celular y humoral.

Nuevo aumento de candidatos a los Premios de Investigación 2017 de la Real Academia de Doctores de España

· El galardón de Ciencias Experimentales y Tecnológicas recibe el mayor número de tesis: 134 sobre los 94 del año anterior
· En segundo lugar se sitúa el Premio RADE de Ciencias de la Vida y de la Salud, con 113 trabajos de investigación
· Todas las tesis presentadas deben haber obtenido la calificación de sobresaliente cum laude


MADRID (19-07-17).- Ha aumentado ligeramente la participación de candidatos en la convocatoria de los Premios de Investigación 2017 de la Real Academia de Doctores de España (RADE), que cuenta con la colaboración de Alcaliber y Laboratorios Ovejero. En la actual edición, se han recibido 438 tesis doctorales, cuatro más que el año pasado, cuando el número de trabajos superó en un 107,6 por ciento los de la convocatoria anterior.

El Premio RADE de Ciencias Experimentales y Tecnológicas encabeza la lista de candidatos, con 134 sobre los 94 del año anterior. En segundo lugar se sitúa el Premio RADE de Ciencias de la Vida y de la Salud, con 113, uno más que en 2016, y en tercera posición, el Premio RADE de Humanidades, con 92, 32 menos en esta ocasión.

En cuarto y quinto lugar se colocan el Premio RADE de Ciencias Económicas, con 31 tesis, y el Premio RADE de Ciencias Jurídicas, con 27, que en la edición de 2016 se convocaron conjuntamente y sumaron 15 trabajos más que en el presente año. A continuación, figuran el Premio Juan Abelló Pascual I del Área de Bioquímica, con 22 tesis, seis más que el año anterior; el Premio Juan Abelló Pascual II de Métodos Analíticos en Bioquímica, con cinco, cuatro más que en la convocatoria precedente, y, finalmente, el Premio Laboratorios Ovejero sobre un tema libre de Microbiología e Inmunología Microbiana, al que han concurrido 14 candidatos, los mismos que el año pasado.

Como establecen las bases de la convocatoria, los participantes deben tener nacionalidad española y haber defendido sus tesis entre el 1 de julio de 2016 y el 14 de julio de 2017, ambos inclusive, además de haber obtenido la calificación de sobresaliente cum laude. Un jurado compuesto por académicos de la RADE decidirá la concesión de los galardones, en una resolución que es inapelable. La resolución del concurso se comunicará directamente a los interesados, y se hará pública en la solemne sesión de apertura del curso 2017-18, en la que se efectuará la entrega de los premios y diplomas correspondientes.

Once investigadores premiados en 2016

En la edición de 2016, once investigadores, seis de ellos mujeres, recibieron los Premios de Investigación de la RADE, que contó igualmente con la participación de Alcaliber y Laboratorios Ovejero. Cuatro de los siete premios convocados tuvieron ganadores ex aequo. El Premio RADE de Humanidades fue para María Teresa Concepción Masip, doctorada por la Universidad de La Laguna, con la tesis Hijos de un dios menor. El enanismo en la época moderna. El caso de España e Italia y su representación en las artes plásticas. Estudio médico e iconográfico, y a Francisco López Muñoz, doctor por la Universidad de Alcalá, con Las sustancias psicotrópicas en los textos cervantinos: tras el rastro del Dioscórides de Andrés Laguna.

El Premio RADE de Ciencias de la Vida y de la Salud lo compartieron María Eulalia Alemany Vilches, doctora por la Universidad de Barcelona, con su tesis Prevalencia del ADN del virus del papiloma humano y distribución específica de tipos en cánceres de cérvix, vulva, vagina, ano, pene y cabeza y cuello, y Luis Nombela Franco, doctorado en la Universidad Autónoma de Madrid, con Implantación percutánea de válvula aórtica en pacientes con estenosis aórtica severa sintomática.

María Teresa Alcolado Chico, con su investigación La entrega vigilada y su impacto en la esfera de los derechos fundamentales y la sociedad globalizada, defendida en la Universidad Complutense, y David Martín Herrera, doctorado por la UNED, con Libertad de expresión, hate speech e incitación directa. Clear and inminent danger desde las perspectivas de la Corte Suprema estadounidense y del Tribunal Europeo de Derechos Humanos, obtuvieron conjuntamente el Premio RADE de Ciencias Jurídicas y Económicas.

Ciencias Experimentales y Tecnológicas

Y sobre otros dos investigadores recayó el Premio RADE de Ciencias Experimentales y Tecnológicas: Diana Bachiller Perea, doctora por la Universidad Autónoma de Madrid, con la tesis Ion – irradiation – induced damage in nuclear materials – case study of a – SiO2 and MgO, y Adrián Barroso Bogeat, doctor por la Universidad de Extremadura, con Formación de óxidos metálicos semiconductores en carbón activado. Caracterización y aplicaciones.

El Premio Juan Abelló Pascual I se adjudicó a Sebastián Jiménez Muñoz, por su tesis Efectos de la acumulación del péptido beta amiloide en tejido cerebral de ratones PS1xAPP modelos de la enfermedad de Alzheimer, defendida en la Universidad de Sevilla.

El Premio Juan Abelló Pascual II correspondió a Neibla Priego Bendeck, doctorada en la Universidad Complutense, con Papel de C3G y p38α en la regulación de la migración, invasión y crecimiento tumoral en carcinoma de colon. Función de fibulina 3. Y, finalmente, Carmen Casal Comendador, doctora por la Universidad Complutense, consiguió el Premio Laboratorios Ovejero, por Diagnóstico de tuberculosis en rumiantes y camélidos: optimización de pruebas de base celular y humoral.

Ahorrar agua requiere mejorar las técnicas productivas de alimentos y consumidores concienciados

 Dado que la agricultura es la mayor consumidora de agua, reducir el uso de este líquido para abastecer a una humanidad creciente requiere consumidores concienciados para adquirir alimentos que gasten menos agua en su producción y que los sectores productivos se esfuercen en incorporar mejores técnicas para reducir el gasto de este elemento, manifestó Alberto Garrido Pérez, Vicerrector de la Universidad Politécnica de Madrid, durante la sesión "El agua en el mundo de hoy", organizada por la Real Academia de Doctores de España (RADE). Al clausurar el acto, la ministra de Agricultura y Pesca, Alimentación y Medio Ambiente, Isabel García Tejerina, se mostró segura de que el informe que prepara la RADE sobre esta materia "será una gran aportación al pacto nacional sobre el agua", que su departamento impulsa con la participación de todos los sectores implicados.

Al abrir la sesión, el Presidente de la RADE, Jesús Álvarez-Fernández Represa, señaló que el agua ha sido siempre un tema de especial predilección de la corporación que, actualmente, ha constituido un grupo de trabajo encargado de elaborar el informe citado por la ministra.

Manuel Ramón Llamas Madurga, Académico de Número de la Sección de Ciencias Experimentales y uno de los componentes del mencionado grupo de trabajo, introdujo la cuestión aclarando que vivimos en una época de incertidumbre sobre lo que pase en el futuro con el uso del agua. Según un investigador el Instituto Tecnológico de Massachusetts (MIT, en sus siglas inglesas), en 30 o 40 años la agricultura no va a necesitar agua. Producir un kilo de chuletón de Ávila, añadió Llamas, necesita 15.000 litros de agua; pero lo que el profesor del MIT mantiene es que se prodrá producir en un laboratorio con mejor calidad y sin necesidad de agua. "No sé hasta qué punto será realidad, pero los avances tecnológicos tienen mucha importancia; y debemos tener suficiente flexibilidad mental para estar atentos al cambio", terminó Llamas.

España, país de estrés hídrico recurrente

Jaime Lamo de Espinosa, Académico de Número de la Sección de Ingeniería, llamó la atención en abrir su intervención sobre algo que suele sorprender: no tenemos más agua que la que surgió en el planeta cuando se creó. "El problema es que, en términos de hectáreas por habitante de lo que llamamos agua azul va contrayendose progresivamente a medida que la población va creciendo". Solo un 2,5 o un 3 por ciento de los recursos del planeta es agua azul, que conocemos como agua dulce, la de ríos, lagos y subterránea. De ese agua, el 70 por ciento es hielo, mientras que de los 119.000 kilómetros cúbicos de precipitación mundial anual, unos 45.000 son agua azul, cuya distribución, usos y el peso del gasto agrario condicionan su aprovechamiento. España es uno de los países que sufren un estrés hídrico recurrente, agregó el ponente.

La agricultura, continuó Lamo de Espinosa, destina aproximadamente el 70 por ciento del agua a producir alimentos. Mientras que en la Europa mediterránea se reduce ese porcentajes, países que viven un proceso de crecimiento de población urbana, como China, India, Rusia o Pakistán, han cambiado sus patrones de vida y alimentación para imitar modelos occidentales que son grandes consumidores de agua. Hoy hay 324 millones de hectáreas de regadío, un 21 por ciento de la superficie agrícola del mundo, que producen un 40 por ciento de los recursos agrarios mundiales, "necesarios para garantizar la seguridad alimentaria".

La población mundial se ha multiplicado por cinco, la producción de cereales por diez y la riqueza general por veinte, prosiguió. Pero muchos expertos entienden que los 10.000 millones de habitantes son la barrera, el límite imposible de compensar con un nivel de recursos semejantes a los actuales. Hay 800 millones de desnutridos y otros tantos sin agua potable. La producción agraria sigue creciendo pero, cuando cae, los precios se disparan. Ese fue el fenómeno que, al igual que en el Motín de Esquilache, oculta la verdadera causa de la Primavera Árabe entre 2008 y 2011: una crisis de alimentos brutal, apuntó Lamo de Espinosa.

Evitar conflictos autonómicos por el agua

Según el ponente, "el cambio climático nos está afectando seriamente. Pueblos de media España se quedan sin agua potable, los acuíferos están secos. Todo esto no es nuevo, pero se ha agravado en los últimos años (...) Hay que abordar el problema de forma drástica. Afortunadamente, la agricultura no forma parte del problema, sino de la solución". Subrayó Lamo de Espinosa que todavía no hemos cumplido la directiva marco del agua de la Unión Europea, que se va a cambiar para añadir más exigencias. El principio de unidad de gestión de las cuencas hidrográficas españolas es, destacó, un modelo copiado a escala mundial y debemos ser capaces de conservarlo. "Debemos evitar que la mala aplicación de los artículos 148 y 149 de la Constitución, que regula las confederaciones en relación con las autonomías, dé origen a los conflictos actuales de autonomías que han hecho una apropiación de ciertos ríos que no les correspondería”.

España es el primer país de Europa y el noveno del mundo en hectáreas de riego, con 3,6 millones, y el segundo en riego de precisión tecnológica. Cuando murió Joaquín Costa había 80 grandes presas, y hoy tenemos por encima de 1.200. Su aportación media anual, por encima de 56.000 hectómetros cúbicos, está bien, precisó, pero no es suficiente. Sin embargo, hablar hoy de construir grandes presas parece que es resucitar fantasmas del pasado, “lo que hace imposible que pueda haber un análisis serio y riguroso sobre el asunto”. De ahí, aseguró Lamo de Espinosa, la necesidad de incluir el agua dentro de una gran política de Estado. Recordó que desde hace, al menos, veinte años viene pidiendo un gran pacto nacional del agua. De las soluciones más inteligentes que ha conocido citó la del ministro Josep Borrel, “que propuso la interconexión de cuencas, de manera que, según los momentos, las aguas irían en unas direcciones u otras. Muy ambicioso e inteligente programa. Pero no se ha llevado a la práctica. Lo que se ha conseguido es la concienciación de la necesidad de un pacto nacional del agua, que la ministra defendió el año pasado”. Concluyó diciendo que invertimos un 0,11 del PIB para garantizar el riego agrícola, mientras que Francia, Reino Unido o Alemania invierten un 0,25, y que la agricultura española será de riego o no será.

La producción de alimentos puede seguir creciendo

Alberto Garrido Pérez, Vicerrector de la Universidad Politécnica de Madrid, explicó que el comercio de agua virtual es el volumen de agua virtualmente transportado o intercambiado a través del comercio de productos o bienes. Producir cualquier bien necesita una cantidad de agua que, al intercambiar ese producto, transportamos virtualmente.

Producir un kilo de soja, que hoy es insustituible por su eficiencia, necesita 3.500 litros de agua, uno de trigo, unos mil litros; uno de arroz, más de mil, y un kilo de pollo, 4.300, porque hay que alimentar al animal con trigo, soja o harina de girasol. Ese agua puede ser azul, pero también de lluvia, agua verde. Entre el 60 y el 70 por ciento de la producción utiliza agua verde, y el otro tercio, azul.

Se preguntó Garrido si el comercio internacional es una vía para resolver la escasez de agua y tierra que afronta la humanidad, y cómo debe regularse ese comercio para reducir la necesidad de agua de la humanidad, puesto que la población aumenta y cambia sus hábitos alimenticios. Se prevé que hay que aumentar las calorías diarias, lo que obliga a incrementar el rendimiento de los cultivos un 80 por ciento. “Sostengo que la humanidad produce los alimentos que se demandan. Y, a medida que se demande más, se producirán más, porque existe una gran elasticidad de oferta a largo plazo y es posible aumentar la producción. Otra cosa son los impactos que se produzcan con ese aumento”.

En 2050, observó Garrido, la mitad de la humanidad vivirá en países sin suficiente agua y tierra para producir los alimentos que necesitan, y la única forma de resolverlo es el comercio de agua virtual, el comercio agrícola. Hoy, Suramérica produce la mayor parte del comercio del agua virtual, y sus principales compradores están en Asia y Europa.

El comercio internacional ahorra recursos hídricos

La huella hídrica, el volumen total de agua dulce consumido, alcanza una media por persona en todo el mundo de 1.400 metros cúbicos. En unos lugares es de 800 y en otros de 2.500. Pero, lo importante, según Garrido; es que de esas cantidades de agua el 70 por ciento se destina a producir alimentos, y en torno a la mitad de esa cifra se convierte en productos cárnicos, lo que significa mayor demanda de productos agrícolas para producir pollos, huevos, leche, cerdo, etc. El comercio, precisó, contribuye al ahorro de agua y, si prescindiéramos de él, la huella hídrica de la humanidad sería mucho mayor. El motivo es que el avance técnico ha introducido mejoras en lo rendimientos. Se estima que el comercio de materias primas permite ahorrar agua azul valorada en 2.400 millones de dólares anuales. No es una gran cantidad, pero significa que la eficiencia técnica asociada al comercio internacional supone ahorro de un recurso escaso. La cuestión es, puntualizó, si se puede seguir incrementando el comercio internacional para alimentar a una población en crecimiento aumentando la presión sobre los recursos de los países exportadores.

Según los analistas, continuó Garrido, el problema es que el agua no tiene un precio correcto, y hay que ponerlo. Pero si se hace así se puede internacional su escasez, que se incorporaría a los costes de producción. Actualmente, lo que se cobra por el agua son costes de gestión e infraestructuras en los países más avanzados. La OCDE ha renunciado a pedir que se aplique precio al agua, y ningún país ha denunciado a otro ante la Organización Mundial del Comercio por subvencionar la gestión del agua para respaldar la agricultura.

Para Garrido, la solución es que la información sobre el uso del agua se internalice en los distintos sectores productivos, para que se esfuercen en reducir su consumo con técnicas de ahorro y, a la vez, concienciar a los consumidores para que sus patrones de consumo sean más responsables. Ya en el coloquio, el ponente indicó que la dieta mediterránea consume un 20 por ciento menos que la americana, basada en más productos cárnicos. Salud y gasto de agua van de la mano, sentenció.

El agua, política de Estado

“La gestión del agua es uno de los asuntos cruciales de nuestro tiempo, más que nunca. De ella dependen objetivos tan importantes como la seguridad alimentaria, la sostenibilidad de nuestros ecosistemas y la adaptación al cambio climático. Por ello es importante que una institución de la capacidad investigadora de la RADE aborde estos temas”, afirmó la
ministra Isabel García Tejerina.

Como Joaquín Costa, el Gobierno entiende que es su deber coadyuvar a que se extienda el riego a la mayor parte del territorio, por eso aprobó el año pasado doce planes hidrológicos de cuenca hasta 2021. Tras expresar que se necesita una política hidráulica de Estado, consensuada y sin politizaciones, añadió que el Gobierno está promoviendo un pacto nacional sobre el agua para cumplir los objetivos medioambientales, la satisfacción de la demanda, los compromisos con la UE y la estabilidad económico-financiera para el sistema del agua español.

Antes de clausurar la sesión, García Tejerina enumeró los cuatro ejes del pacto: la atención de los déficits hídricos con especial hincapié en las infraestructuras necesarias, el cumplimiento de los objetivos medioambientales de saneamiento, depuración y protección de espacios emblemáticos; los planes de gestión de los riesgos de inundación y las medidas de gobernanza del agua que exigen los compromisos adquiridos con la UE.

Ahorrar agua requiere mejorar las técnicas productivas de alimentos y consumidores concienciados

· La ministra de Agricultura y Pesca, Alimentación y Medio Ambiente, Isabel García Tejerina, clausuró la segunda sesión sobre la escasez de recursos hídricos organizada por la Real Academia de Doctores de España, y se mostró segura de que el informe que está preparando esta institución sobre esta materia "será una gran aportación al pacto nacional sobre el agua"
· Según Ramón Llamas: Producir un kilo de chuletón de Ávila necesita 15.000 litros de agua; pero un profesor del MIT mantiene que, en 30 o 40 años, se prodrá producir en un laboratorio con mejor calidad y sin necesidad de agua
· Alberto Garrido, vicerrector de la Universidad Politécnica de Madrid, sostiene que la humanidad produce los alimentos que se demandan; y, a medida que se demande más, se producirán más, porque existe una gran elasticidad de oferta a largo plazo y es posible aumentar la producción
· Jaime Lamo de Espinosa: "Debemos evitar que la mala aplicación de los artículos 148 y 149 de la Constitución, que regula las confederaciones en relación con las autonomías, dé origen a los conflictos actuales de autonomías que han hecho una apropiación de ciertos ríos que no les correspondería”

MADRID (20-09-17).- Dado que la agricultura es la mayor consumidora de agua, reducir el uso de este líquido para abastecer a una humanidad creciente requiere consumidores concienciados para adquirir alimentos que gasten menos agua en su producción y que los sectores productivos se esfuercen en incorporar mejores técnicas para reducir el gasto de este elemento, manifestó Alberto Garrido Pérez, vicerrector de la Universidad Politécnica de Madrid, durante la sesión "El agua en el mundo de hoy", organizada por la Real Academia de Doctores de España (RADE). Al clausurar el acto, la ministra de Agricultura y Pesca, Alimentación y Medio Ambiente, Isabel García Tejerina, se mostró segura de que el informe que está preparando la RADE sobre esta materia "será una gran aportación al pacto nacional sobre el agua", que su departamento impulsa con la participación de todos los sectores implicados.

Manuel Ramón Llamas Madurga, académico de número de la Sección de Ciencias Experimentales y uno de los componentes del grupo de trabajo que prepara el informe de la RADE, introdujo la cuestión aclarando que vivimos en una época de incertidumbre sobre lo que pase en el futuro con el uso del agua. Según un investigador el Instituto Tecnológico de Massachusetts (MIT, en sus siglas inglesas), en 30 o 40 años la agricultura no va a necesitar agua. Producir un kilo de chuletón de Ávila, añadió Llamas, necesita 15.000 litros de agua; pero lo que el profesor del MIT mantiene es que se prodrá producir en un laboratorio con mejor calidad y sin necesidad de agua. "No sé hasta qué punto será realidad, pero los avances tecnológicos tienen mucha importancia; y debemos tener suficiente flexibilidad mental para estar atentos al cambio", terminó Llamas.

España, país de estrés hídrico recurrente

Jaime Lamo de Espinosa, académico de número de la Sección de Ingeniería y miembro también del grupo de trabajo sobre el agua, llamó la atención en abrir su intervención sobre algo que suele sorprender: no tenemos más agua que la que surgió en el planeta cuando se creó. "El problema es que, en términos de hectáreas por habitante de lo que llamamos agua azul va contrayendose progresivamente a medida que la población va creciendo". Solo un 2,5 o un 3 por ciento de los recursos del planeta es agua azul, que conocemos como agua dulce, la de ríos, lagos y subterránea. España es uno de los países que sufren un estrés hídrico recurrente, agregó el ponente.

La agricultura, continuó Lamo de Espinosa, destina aproximadamente el 70 por ciento del agua a producir alimentos. Mientras que en la Europa mediterránea se reduce ese porcentajes, países que viven un proceso de crecimiento de población urbana, como China, India, Rusia o Pakistán, han cambiado sus patrones de vida y alimentación para imitar modelos occidentales que son grandes consumidores de agua. Hoy hay 324 millones de hectáreas de regadío, un 21 por ciento de la superficie agrícola del mundo, que producen un 40 por ciento de los recursos agrarios mundiales, "necesarios para garantizar la seguridad alimentaria".

La población mundial se ha multiplicado por cinco, la producción de cereales por diez y la riqueza general por veinte, prosiguió. Pero muchos expertos entienden que los 10.000 millones de habitantes son la barrera, el límite imposible de compensar con un nivel de recursos semejantes a los actuales. Hay 800 millones de desnutridos y otros tantos sin agua potable. La producción agraria sigue creciendo pero, cuando cae, los precios se disparan. Ese fue el fenómeno que, al igual que en el Motín de Esquilache, oculta la verdadera causa de la Primavera Árabe entre 2008 y 2011: una crisis de alimentos brutal, apuntó Lamo de Espinosa.

Evitar conflictos autonómicos por el agua

Según el ponente, "el cambio climático nos está afectando seriamente. Pueblos de media España se quedan sin agua potable, los acuíferos están secos. Todo esto no es nuevo, pero se ha agravado en los últimos años (...) Hay que abordar el problema de forma drástica. Afortunadamente, la agricultura no forma parte del problema, sino de la solución". Subrayó Lamo de Espinosa que todavía no hemos cumplido la directiva marco del agua de la Unión Europea, que se va a cambiar para añadir más exigencias. El principio de unidad de gestión de las cuencas hidrográficas españolas es, destacó, un modelo copiado a escala mundial y debemos ser capaces de conservarlo. "Debemos evitar que la mala aplicación de los artículos 148 y 149 de la Constitución, que regula las confederaciones en relación con las autonomías, dé origen a los conflictos actuales de autonomías que han hecho una apropiación de ciertos ríos que no les correspondería”.

España es el primer país de Europa y el noveno del mundo en hectáreas de riego, con 3,6 millones, y el segundo en riego de precisión tecnológica. Cuando murió Joaquín Costa había 80 grandes presas, y hoy tenemos por encima de 1.200. Su aportación media anual, por encima de 56.000 hectómetros cúbicos, está bien, precisó, pero no es suficiente. Sin embargo, hablar hoy de construir grandes presas parece que es resucitar fantasmas del pasado, “lo que hace imposible que pueda haber un análisis serio y riguroso sobre el asunto”. De ahí, aseguró Lamo de Espinosa, la necesidad de incluir el agua dentro de una gran política de Estado. Recordó que desde hace, al menos, veinte años viene pidiendo un gran pacto nacional del agua. De las soluciones más inteligentes que ha conocido citó la del ministro Josep Borrel, “que propuso la interconexión de cuencas, de manera que, según los momentos, las aguas irían en unas direcciones u otras. Muy ambicioso e inteligente programa. Pero no se ha llevado a la práctica. Lo que se ha conseguido es la concienciación de la necesidad de un pacto nacional del agua, que la ministra defendió el año pasado”.

La producción de alimentos puede seguir creciendo

Alberto Garrido Pérez, vicerrector de la Universidad Politécnica de Madrid, explicó que el comercio de agua virtual es el volumen de agua virtualmente transportado o intercambiado a través del comercio de productos o bienes. Producir cualquier bien necesita una cantidad de agua que, al intercambiar ese producto, transportamos virtualmente. Producir un kilo de soja, que hoy es insustituible por su eficiencia, necesita 3.500 litros de agua, uno de trigo, unos mil litros; uno de arroz, más de mil, y un kilo de pollo, 4.300, porque hay que alimentar al animal con trigo, soja o harina de girasol.

Se preguntó Garrido si el comercio internacional es una vía para resolver la escasez de agua y tierra que afronta la humanidad, y cómo debe regularse ese comercio para reducir la necesidad de agua de la humanidad, puesto que la población aumenta y cambia sus hábitos alimenticios. Se prevé que hay que aumentar las calorías diarias, lo que obliga a incrementar el rendimiento de los cultivos un 80 por ciento. “Sostengo que la humanidad produce los alimentos que se demandan. Y, a medida que se demande más, se producirán más, porque existe una gran elasticidad de oferta a largo plazo y es posible aumentar la producción. Otra cosa son los impactos que se produzcan con ese aumento”.

En 2050, observó Garrido, la mitad de la humanidad vivirá en países sin suficiente agua y tierra para producir los alimentos que necesitan, y la única forma de resolverlo es el comercio de agua virtual, el comercio agrícola. Hoy, Suramérica produce la mayor parte del comercio del agua virtual, y sus principales compradores están en Asia y Europa.

El comercio internacional ahorra recursos hídricos

La huella hídrica, el volumen total de agua dulce consumido, alcanza una media por persona en todo el mundo de 1.400 metros cúbicos. En unos lugares es de 800 y en otros de 2.500. Pero, lo importante, según Garrido; es que de esas cantidades de agua el 70 por ciento se destina a producir alimentos, y en torno a la mitad de esa cifra se convierte en productos cárnicos, lo que significa mayor demanda de productos agrícolas para producir pollos, huevos, leche, cerdo, etc. El comercio, precisó, contribuye al ahorro de agua y, si prescindiéramos de él, la huella hídrica de la humanidad sería mucho mayor. El motivo es que el avance técnico ha introducido mejoras en lo rendimientos. Se estima que el comercio de materias primas permite ahorrar agua azul valorada en 2.400 millones de dólares anuales. No es una gran cantidad, pero significa que la eficiencia técnica asociada al comercio internacional supone ahorro de un recurso escaso. La cuestión es, puntualizó, si se puede seguir incrementando el comercio internacional para alimentar a una población en crecimiento aumentando la presión sobre los recursos de los países exportadores.

Según los analistas, continuó Garrido, el problema es que el agua no tiene un precio correcto, y hay que ponerlo. Pero si se hace así se puede internacional su escasez, que se incorporaría a los costes de producción. Actualmente, lo que se cobra por el agua son costes de gestión e infraestructuras en los países más avanzados. La OCDE ha renunciado a pedir que se aplique precio al agua, y ningún país ha denunciado a otro ante la Organización Mundial del Comercio por subvencionar la gestión del agua para respaldar la agricultura.

Para Garrido, la solución es que la información sobre el uso del agua se internalice en los distintos sectores productivos, para que se esfuercen en reducir su consumo con técnicas de ahorro y, a la vez, concienciar a los consumidores para que sus patrones de consumo sean más responsables. Ya en el coloquio, el ponente indicó que la dieta mediterránea consume un 20 por ciento menos que la americana, basada en más productos cárnicos. Salud y gasto de agua van de la mano, sentenció.

El agua, política de Estado

“La gestión del agua es uno de los asuntos cruciales de nuestro tiempo, más que nunca. De ella dependen objetivos tan importantes como la seguridad alimentaria, la sostenibilidad de nuestros ecosistemas y la adaptación al cambio climático. Por ello es importante que una institución de la capacidad investigadora de la RADE aborde estos temas”, afirmó la
ministra Isabel García Tejerina.

El Gobierno entiende que es su deber coadyuvar a que se extienda el riego a la mayor parte del territorio, por eso aprobó el año pasado doce planes hidrológicos de cuenca hasta 2021. Tras expresar que se necesita una política hidráulica de Estado, consensuada y sin politizaciones, la ministra añadió que el Gobierno está promoviendo un pacto nacional sobre el agua para cumplir los objetivos medioambientales, la satisfacción de la demanda, los compromisos con la UE y la estabilidad económico-financiera para el sistema del agua español.

Antes de clausurar la sesión, García Tejerina enumeró los cuatro ejes del pacto: la atención de los déficits hídricos con especial hincapié en las infraestructuras necesarias, el cumplimiento de los objetivos medioambientales de saneamiento, depuración y protección de espacios emblemáticos; los planes de gestión de los riesgos de inundación y las medidas de gobernanza del agua que exigen los compromisos adquiridos con la UE.

La RADE eleva recomendaciones al Ministerio de Educación para mejorar la regulación del título de doctor

Que se asegure que la tesis supone un avance del conocimiento, mayor financiación para los estudios de doctorado, garantizar la cualificación del director de la tesis y de los miembros del tribunal, que se adjudique la calificación de cum laude en un acto posterior a la defensa de la tesis por una comisión distinta al tribunal examinador y que se habiliten medios para la revalorización social del título de doctor, tanto a través del sector empresarial, como del público, son algunas de las recomendaciones elevadas por la Real Academia de Doctores de España (RADE) al Ministerio de Educación, Cultura y Deporte, para modificar la regulación del título de doctor.

El informe, presentado a los medios de comunicación por el Presidente de la academia, Jesús Álvarez Fernández-Represa; el Vicepresidente, Saturnino de la Plaza Pérez, y el Coordinador del informe, Juan José Aragón Reyes, lo encargó la Junta de Gobierno de la RADE a un grupo de trabajo multidisciplinar, para analizar la situación del doctorado regulado por el Real Decreto 99/2011. Integraron dicho grupo siete miembros de las diferentes secciones de la academia y otros tantos vicerrectores, decanos, directores de centros y de escuelas de doctorado de las  universidades públicas con sede en la Comunidad de Madrid (Complutense, Politécnica, Autónoma, UNED, Alcalá, Carlos III y Rey Juan Carlos), propuestos por sus rectores. El resultado final expresa la decisión colegiada del grupo, cuyos componentes han actuado como expertos y en nombre propio, sin responder a posiciones de sus instituciones.

Terminado en noviembre de 2015, y tras pasar por la Junta de Gobierno y el Pleno de la corporación académica, el informe se envió a todas las universidades españolas, públicas y privadas, para que hicieran sugerencias, sin que las recibidas añadieran cambios sustanciales al texto original. Durante ese tiempo se publicó un nuevo real decreto, el 195/2016, con los requisitos del suplemento europeo al título de doctor, que incluía algunas de las propuestas formuladas, por lo que se decidió actualizarlo. El informe se entregó al ministro de Educación, Cultura y Deporte, una vez superado el periodo de tiempo en el que el Gobierno estuvo en funciones.

El informe comienza con una comparación entre la situación del doctorado en España y el resto de Europa, para concluir que nos encontramos a nivel europeo en el protagonismo de las escuelas de doctorado; pero estamos por debajo en internacionalización, entre otras razones, por falta de financiación; en trabajos en abierto, MOOCS (massive open online courses), o en la creación de un cuerpo gestor de la investigación con formación investigadora y de gestión. Considera el informe que el Real Decreto 99/2011, que regula el doctorado, modificado por el 534/2013, “ha supuesto un giro trascendental en el desarrollo de los estudios del tercer ciclo de la enseñanza universitaria en nuestro país”. Pero continua habiendo lagunas; y por eso se hacen propuestas de modificación”, dijeron los miembros de la RADE en la rueda de prensa.

Cuestiones pendientes

Tras destacar los avances, el grupo de trabajo subrayó cuestiones pendientes de resolver: el fracaso y frecuente abandono de los alumnos e, incluso, su absentismo inicial después de formalizar la matrícula; la asignatura pendiente del doctorado industrial, que se ha regulado solo en algunas autonomías o el fomento y desarrollo de una investigación responsable y ética para prevenir el fraude, el plagio o la manipulación indebida de materiales y procesos en la investigación.

Las primeras recomendaciones se refieren a la duración de los estudios y la permanencia. En el primer caso, se sugiere que la duración de los estudios se atempere con flexibilidad a la finalidad de cada doctorado, en función de las exigencias y necesidades de cada ámbito de conocimiento. Igualmente, se plantea que el plazo de permanencia comience a contar el día que se presenta y acepta el plan de investigación, que es cuando el doctorando puede empezar a trabajar, y no cuando es admitido.

La admisión de estudiantes de doctorado debe estar condicionada a la disponibilidad de recursos humanos y materiales relacionados con el tema y línea de su investigación. Este punto se considera esencial, porque se pueden admitir doctorandos cuyo proyecto de investigación no se corresponda con la existencia de profesores o de líneas de investigación del centro; y, si no hay recursos, la tesis resulta generalmente inviable.

Las comisiones académicas de los programas de doctorado deberían reservarse la posibilidad de no admitir estudiantes sin una carta de aceptación de un profesor investigador que asuma la dirección de su tesis, situación que ocurre actualmente, como se indicó en la rueda de prensa.

Subsanar la falta de recursos

Ante la actual escasez presupuestaria, se propone que haya una preadmisión condicionada a que el estudiante obtenga un contrato de formación investigadora o alguna otra suerte de financiación que, en caso de no lograrse, llevaría a resolver la inscripción y reembolsar la matrícula.

El informe reclama líneas de financiación específicas que promuevan la movilidad de los doctorandos, programas colaborativos e interuniversitarios, convenios de cotutelas y cooperación internacional; así como incrementar los contratos para formación del personal investigador en condiciones equiparables a otros países de nuestro entorno, y políticas que incentiven los doctorados industriales. Todo ello, como se expuso en la rueda de prensa, para compensar la falta de recursos que limita marcadamente la realización de tesis doctorales que podrían ser un vector de avance del conocimiento y de la capacidad productiva de España.

Los expertos creen necesario establecer incentivos para promover la excelencia, innovación y competitividad de los programas de doctorado. En esa línea, se indica que las escuelas de doctorado han de establecer sistemas “que incluyan los estándares de calidad internacionales para cada ámbito de conocimiento”. Según el informe, deben aclararse con antelación los criterios de evaluación para verificar, cada seis años, los programas de doctorado mencionados en el artículo 10.3 del Real Decreto 99/2011, por ramas de conocimiento a escala nacional y con homogeneidad y coordinación entre las diferentes agencias evaluadoras, ya que no se han establecido los criterios generales que van a utilizar estas agencias. “Proponemos que tanto la ANECA como las agencias autonómicas publiquen sus criterios de evaluación para que las universidades sepan a qué atenerse, y que esos criterios no fueran excesivamente diferentes”, indicaron los representantes de la RADE.

Sugiere el informe que las universidades colaboren en fijar directrices y normas para prevenir fraudes, plagios y cualquier otra conducta inapropiada que busque el reconocimiento o la fama mediante prácticas reprobables y no autorizadas; y que se planifiquen actividades formativas sobre ética en investigación para estudiantes y profesores. Ante la ausencia de sistemas sólidos para detectar o evitar el fraude, se pretende que la comisión académica del doctorado verifique, de forma explícita, que la tesis constituye una aportación significativa y original al conocimiento. Una tarea muy difícil, reconocieron los portavoces de la RADE, como demuestra la cantidad de noticias sobre fraudes científicos detectados a posteriori, pero absolutamente necesaria.

Derecho mutuo de director y doctorando a aceptarse

El informe plantea que se reconozca el derecho del doctorando a proponer un director y el correlativo derecho del elegido a aceptar o no, en lugar de que sea la comisión académica o el Departamento quien asigne director. Como se explicó ante los medios, actualmente se producen frecuentes conflictos, ya que “se asigna la dirección de la tesis a quien tiene menos encargos de este tipo, y las consecuencias son gravísimas desde el momento en que una persona va a hacer un trabajo de investigación con un director a quien no ha elegido. Lo mismo ocurre cuando un profesor tiene que hacerse cargo de la tesis de un doctorando que por alguna razón no considere dirigir.

Demandan los expertos en su texto una interpretación más clara del punto 7º del artículo 11 del real decreto, para que, si un estudiante obtiene dos evaluaciones negativas, cause baja definitiva en sus estudios, sin que pueda ser admitido de nuevo en el mismo programa. Es decir, se propone que, en vez de supervisión, se haga una verdadera evaluación para detectar si la investigación se está haciendo de forma correcta.

La codirección de las tesis debe limitarse a dos directores como máximo, salvo por razones estrictamente académicas o por el carácter multidisciplinar de la investigación, señala el informe. Se pretende evitar así “que haya directores fantasma, no infrecuentes en la universidad española, sin participación real en la dirección del trabajo del doctorando, aclararon los miembros de la RADE.

El director de la tesis debe contar con experiencia investigadora postdoctoral en el campo científico objeto de la tesis con, al menos, un sexenio de investigación reconocido por la Comisión Nacional de Evaluación de la Actividad Investigadora (CNEAI), en los últimos diez años, o acreditar méritos equiparables a esa experiencia, según el informe, ya que, salvo en el caso de algunas universidades que han regulado este aspecto, “no está suficientemente garantizada la capacidad científica de los directores de las tesis doctorales en la actualidad”, manifestaron los representantes académicos.

Una aportación original al conocimiento

Los autores del informe hacen hincapié en que la comisión académica del programa de doctorado debe verificar, de forma explícita, que la tesis constituye una aportación significativa y original al avance del conocimiento. “Lo que proponemos es que exista una norma que obligue a asegurarnos de que siempre se cumple este criterio. Es decir, debe quedar regulada la obligación de hacer esta comprobación”, se añadió en la rueda de prensa.

Los miembros del tribunal, propone el informe, deberán contar con experiencia investigadora de, al menos, un sexenio de investigación reconocido por la CNEAI, obtenido dentro de los últimos diez años, o bien acreditar méritos equiparables a los necesarios para obtener un sexenio de investigación. La propuesta pretende fijar claramente en la ley los requisitos exigibles para justificar la competencia científica , y “no dejarlo al arbitrio de las universidades”, mantuvieron los miembros de la RADE.

Además, deberán protegerse la confidencialidad y los derechos derivados de los resultados de la investigación objeto de la tesis, de manera que no quede comprometida su publicación, con respeto, en todo caso, a la voluntad de su autor y de su director. Esta protección se da en la actualidad, pero, “por el deseo de dar a conocer la investigación que se hace en una universidad, se hacen accesibles a veces demasiado rápidamente las tesis doctorales al público en general; lo que puede causar problemas considerables, dado que las tesis tienen que ser en principio confidenciales hasta su publicación. De hecho, hay universidades donde el control de este requisito es absoluto”, subrayaron los representantes de la RADE.

Los expertos consideran que, una vez obtenida la calificación de sobresaliente por unanimidad, el escrutinio de los votos para la mención cum laude debe hacerlo una comisión ad hoc diferente del tribunal de la tesis y en un acto diferido en el tiempo respecto al de su lectura y defensa. La composición y funcionamiento de esta comisión podría arbitrarla el gobierno de la escuela de doctorado o del vicerrectorado correspondiente. Esta sugerencia surge de un problema muy grave que arrastra el doctorado en la universidad española: la inmensa mayoría de las tesis se califican con sobresaliente cum laude; “algo muchas veces injusto”, afirmaron los representantes de la RADE ante los medios. Las últimas normas exigen que los miembros del tribunal coincidan en la calificación de sobresaliente y que, en secreto, se establezca si el trabajo merece la mención. Pero los expertos creen que debe llegarse más lejos: que el cum laude no debe decidirse en el mismo acto para evitar que los miembros del tribunal puedan sentirse condicionados.

Revalorizar el título de doctor

Un último apartado del informe, titulado “Revalorización del título de doctor”, propone medidas para aumentar el reconocimiento y la proyección social de este título. En el campo de la administración general del Estado ser doctor debería considerarse un mérito sustancial para acceder a los cuerpos superiores de la función pública, dice el informe que, a la vez, recomienda que se asigne un componente retributivo, no solo durante el período del ejercicio activo, sino con carácter vitalicio, como complemento de la pensión pública de jubilación. De manera particular, se añade, sería muy recomendable incentivar la incorporación de doctores a la enseñanza no universitaria, porque su formación investigadora puede contribuir significativamente a mejorar la educación.

Según el informe, la sociedad ignora en gran medida qué es o para qué sirve un doctorado, por lo que aconseja hacer pedagogía social sobre este asunto. Además de lo anterior, se impone que la universidad se abra a la sociedad para anticiparse a lo que esta le demande, como eje de la oferta educativa que oriente la programación académica hacia el aprovechamiento de la producción doctoral por parte de la industria y el mundo empresarial.

Se propone que el Estado estimule al sector empresarial para que integre doctores, ya sea como cuota obligatoria o con subvenciones o incentivos fiscales o económicos, de forma que las empresas aumenten el número de doctores en sus departamentos de I+D. El grupo de trabajo recomienda que en las convocatorias públicas de I+D abiertas a empresas tengan más protagonismo al frente del proyecto, o como partícipes del mismo, quienes tengan el título de doctor, mediante su vinculación contractual o su integración en los departamentos de investigación de las empresas.

La Real Academia de Doctores de España propone recomendaciones para mejorar el título de doctor

· Que se asegure que la tesis supone un avance del conocimiento, mayor financiación para los estudios de doctorado, garantizar la cualificación del director de la tesis y del tribunal, modificar el sistema de concesión del cum laude y revalorización social del título de doctor son algunas de las propuestas
· Sigue habiendo lagunas en la regulación del tercer ciclo, por eso se hacen propuestas de modificación, afirman los representantes de la RADE
· Se sugiere que las universidades desarrollen medidas eficaces para prevenir fraudes, plagios y otras conductas inapropiadas que busquen el reconocimiento o la fama con prácticas reprobables
· Salvo en el caso de algunas universidades, no está suficientemente garantizada la capacidad científica de los directores de tesis ni de los miembros el tribunal
· Para evitar la concesión injusta del cum laude, se recomienda que lo adjudique posteriormente una comisión, y no el tribunal examinador de la tesis

MADRID (25-09-17).- Que las escuelas de doctorado verifiquen que la tesis es un trabajo original de investigación, más financiación para los estudios de doctorado, garantizar la cualificación del director de la tesis y de los miembros del tribunal y que la mención de cum laude no la adjudique el tribunal, para evitarle presiones, sino una comisión ad hoc que, posteriormente, constate que la tesis ha obtenido la máxima calificación por unanimidad, son algunas de las recomendaciones elevadas por la Real Academia de Doctores de España (RADE) al Ministerio de Educación, Cultura y Deporte, para mejorar la regulación del título de doctor.

El informe, presentado a los medios de comunicación por el Presidente de la academia, Jesús Álvarez Fernández-Represa; el Vicepresidente, Saturnino de la Plaza Pérez, y el Coordinador del informe, Juan José Aragón Reyes, lo encargó la Junta de Gobierno de la RADE a un grupo de trabajo multidisciplinar, para analizar la situación del doctorado tras la puesta en marcha de los nuevos programas regulados por el Real Decreto 99/2011. El grupo estuvo integrado por siete miembros de las diferentes secciones de la academia y otros tantos vicerrectores, decanos, directores de centros y de escuelas de doctorado de las universidades públicas con sede en la Comunidad de Madrid (Complutense, Politécnica, Autónoma, UNED, Alcalá, Carlos III y Rey Juan Carlos), propuestos por sus rectores. El resultado final expresa la decisión colegiada del grupo, cuyos componentes han actuado como expertos y en nombre propio, sin responder a posiciones de sus instituciones.

Terminado en noviembre de 2015, y tras pasar por la Junta de Gobierno y el Pleno de la corporación, el informe se envió a todas las universidades españolas, públicas y privadas, para que hicieran sugerencias, sin que las recibidas añadieran cambios sustanciales al texto original. Durante ese tiempo se publicó un nuevo real decreto, el 195/2016, con los requisitos del suplemento europeo al título de doctor, que incluía algunas propuestas del informe, por lo que se decidió actualizarlo. El texto se entregó al ministro de Educación, Cultura y Deporte en 2017, una vez superado el periodo de tiempo en el que el Gobierno estuvo en funciones.

Al comparar la situación del doctorado en España y el resto de Europa, el informe concluye que estamos a nivel europeo en el protagonismo de las escuelas de doctorado; pero estamos por debajo en internacionalización, en trabajos en abierto, MOOCS (massive open online courses) o en la creación de un cuerpo gestor de la investigación con formación investigadora y de gestión. Los expertos consideran que el Real Decreto 99/2011, que regula el doctorado, modificado por el 534/2013, “ha supuesto un giro trascendental en el desarrollo de los estudios del tercer ciclo de la enseñanza universitaria en nuestro país”. Pero continua habiendo lagunas, y por eso se hacen propuestas de modificación”, explicaron los miembros de la RADE en la rueda de prensa.

La tesis debe aportar al avance del conocimiento

Los autores del informe hacen hincapié en que la comisión académica del programa de doctorado debe verificar, de forma explícita, que la tesis constituye una aportación significativa y original al avance del conocimiento. “Lo que proponemos es que exista una norma que obligue a asegurarnos de que siempre se cumple este criterio. Es decir, debe quedar regulada la obligación de hacer esta comprobación”, se añadió en la rueda de prensa.

En la misma línea, se sugiere que las universidades colaboren en fijar directrices y normas para prevenir fraudes, plagios y cualquier otra conducta inapropiada que busque el reconocimiento o la fama mediante prácticas reprobables y no autorizadas; y que se planifiquen actividades formativas sobre ética en investigación para estudiantes y profesores. Ante la ausencia de sistemas sólidos para detectar o evitar el fraude, se pretende que la comisión académica del doctorado verifique, de forma explícita, que la tesis constituye una aportación significativa y original al conocimiento. Una tarea muy difícil, reconocieron los portavoces de la RADE, como demuestra la cantidad de noticias sobre fraudes científicos detectados a posteriori, pero absolutamente necesaria.

Dada la actual escasez presupuestaria, se propone que haya una preadmisión condicionada a que el estudiante obtenga un contrato de formación investigadora o alguna otra suerte de financiación que, en caso de no lograrse, llevaría a resolver la inscripción y reembolsar la matrícula. En este contexto, el informe reclama líneas de financiación específicas que promuevan la movilidad de los doctorandos, programas colaborativos e interuniversitarios, convenios de cotutelas y cooperación internacional; así como incrementar los contratos para formación del personal investigador en condiciones equiparables a otros países de nuestro entorno, y políticas que incentiven los doctorados industriales. Todo ello, como se expuso en la rueda de prensa, para compensar la falta de recursos que limitan la realización de tesis doctorales que podrían ser un vector de avance del conocimiento y de la capacidad productiva de España.

El director de la tesis debe contar con experiencia investigadora postdoctoral en el campo científico objeto de la tesis con, al menos, un sexenio de investigación reconocido por la Comisión Nacional de Evaluación de la Actividad Investigadora (CNEAI), en los últimos diez años, o acreditar méritos equiparables a esa experiencia, según el informe, ya que, salvo en el caso de algunas universidades que han regulado este aspecto, “no está suficientemente garantizada la capacidad científica de los directores de las tesis doctorales en la actualidad”, según los representantes académicos.

Cum laude: excesivos e injustos

De igual modo, los miembros del tribunal deberán contar con experiencia investigadora de, al menos, un sexenio de investigación reconocido por la CNEAI, obtenido dentro de los últimos diez años, o bien acreditar méritos equiparables a los necesarios para obtener un sexenio de investigación. La propuesta pretende fijar claramente en la ley los requisitos exigibles para justificar la competencia científica, y “no dejarlo al arbitrio de las universidades”, mantuvieron los miembros de la RADE.

El grupo de expertos considera que, una vez obtenida la calificación de sobresaliente por unanimidad, el escrutinio de los votos para la mención cum laude debe hacerlo una comisión ad hoc diferente del tribunal de la tesis y en un acto diferido en el tiempo respecto al de su lectura y defensa. La composición y funcionamiento de esta comisión podría arbitrarla el gobierno de la escuela de doctorado o el vicerrectorado correspondiente. Esta sugerencia surge de un problema muy grave que arrastra el doctorado en la universidad española: la inmensa mayoría de las tesis se califican con sobresaliente cum laude; “algo muchas veces injusto”, afirmaron los representantes de la RADE ante los medios. Las últimas normas exigen que los miembros del tribunal coincidan en la calificación de sobresaliente y que, en secreto, se establezca si el trabajo merece la mención. Pero los expertos creen que debe llegarse más lejos: que el cum laude no debe decidirse en el mismo acto para evitar que los miembros del tribunal puedan sentirse condicionados.

El informe propone que la duración de los estudios se atempere con flexibilidad a la finalidad de cada doctorado, en función de las exigencias y necesidades de cada ámbito de conocimiento. Igualmente, se plantea que el plazo de permanencia comience a contar el día que se presenta y acepta el plan de investigación, que es cuando el doctorando puede empezar a trabajar, y no cuando es admitido. Por otro lado, la admisión de estudiantes debe estar condicionada a la disponibilidad de recursos humanos y materiales relacionados con el tema y línea de su investigación. Este punto se considera esencial, porque se pueden admitir doctorandos cuyo proyecto de investigación no se corresponda con la existencia de profesores o de líneas de investigación del centro; y, si no hay recursos, la tesis resulta generalmente inviable.

Derecho mutuo de director y doctorando a aceptarse

Las comisiones académicas de los programas de doctorado deberían reservarse, además, la posibilidad de no admitir estudiantes sin una carta de aceptación de un profesor investigador que asuma la dirección de su tesis, como ocurre actualmente, según se indicó en la rueda de prensa.

Los expertos creen necesario establecer incentivos para promover la excelencia, innovación y competitividad de los programas de doctorado: las escuelas de doctorado han de establecer sistemas “que incluyan los estándares de calidad internacionales para cada ámbito de conocimiento”. El informe pide que se aclaren con antelación los criterios de evaluación para verificar, cada seis años, los programas de doctorado del artículo 10.3 del Real Decreto 99/2011, por ramas de conocimiento a escala nacional y con homogeneidad y coordinación entre las diferentes agencias evaluadoras, ya que no se han establecido los criterios generales que van a utilizar estas agencias. “Proponemos que tanto la ANECA como las agencias autonómicas publiquen sus criterios de evaluación para que las universidades sepan a qué atenerse, y que esos criterios no fueran excesivamente diferentes”, dijeron los representantes de la RADE.

El informe plantea que se reconozca el derecho del doctorando a proponer un director y el correlativo derecho del elegido a aceptar o no, en lugar de que sea la comisión académica la que asigne director. Como se expuso ante los medios, actualmente se producen frecuentes conflictos, ya que “se asigna la dirección de la tesis a quien tiene menos encargos de este tipo, y las consecuencias son gravísimas desde el momento en que una persona va a hacer un trabajo de investigación con un director a quien no ha elegido. Lo mismo ocurre cuando un profesor tiene que hacerse cargo de la tesis de un doctorando que por alguna razón no considere dirigir”.

No a los directores fantasma

Demandan los expertos en su texto una interpretación más clara del punto 7º del artículo 11 del real decreto, para que, si un estudiante obtiene dos evaluaciones negativas, cause baja definitiva en sus estudios, sin que pueda ser admitido de nuevo en el mismo programa. Es decir, se propone que, en vez de supervisión, se haga una verdadera evaluación para detectar si la investigación se está haciendo de forma correcta.

La codirección de las tesis debe limitarse a dos directores como máximo, salvo por razones estrictamente académicas o por el carácter multidisciplinar de la investigación, señala el informe. Se pretende evitar así “que haya directores fantasma, no infrecuentes en la universidad española, sin participación real en la dirección del trabajo del doctorando”, aclararon los miembros de la RADE

Además, deberán protegerse la confidencialidad y los derechos derivados de los resultados de la investigación objeto de la tesis, de manera que no quede comprometida su publicación, con respeto, en todo caso, a la voluntad de su autor y de su director. Esta protección se da en la actualidad, pero, “por el deseo de dar a conocer la investigación que se hace en una universidad, se hacen accesibles muy rápidamente las tesis doctorales al público en general; lo que puede causar problemas considerables, dado que las tesis tienen que ser confidenciales hasta que se publican. De hecho, hay universidades donde el control de este requisito es absoluto”, subrayaron los representantes de la RADE.

Revalorizar el título de doctor

Un último apartado del informe, titulado “Revalorización del título de doctor”, propone medidas para aumentar el reconocimiento y la proyección social de este título. En el campo de la administración general del Estado ser doctor debería considerarse un mérito sustancial para acceder a los cuerpos superiores de la función pública, dice el informe que, a la vez, recomienda que se asigne un componente retributivo, no solo durante el período del ejercicio activo, sino con carácter vitalicio, como complemento de la pensión pública de jubilación. De manera particular, se añade, sería muy recomendable incentivar la incorporación de doctores a la enseñanza no universitaria, porque su formación investigadora puede contribuir significativamente a mejorar la educación.

Según el informe, la sociedad ignora en gran medida qué es o para qué sirve un doctorado, por lo que aconseja hacer pedagogía social sobre este asunto. Además de lo anterior, se impone que la universidad se abra a la sociedad para anticiparse a lo que esta le demande, como eje de la oferta educativa que oriente la programación académica hacia el aprovechamiento de la producción doctoral por parte de la industria y el mundo empresarial.

Se propone que el Estado estimule al sector empresarial para que integre doctores, ya sea como cuota obligatoria o con subvenciones o incentivos fiscales o económicos, de forma que las empresas aumenten el número de doctores en sus departamentos de I+D. El grupo de trabajo recomienda que en las convocatorias públicas de I+D abiertas a empresas tengan más protagonismo al frente del proyecto, o como partícipes del mismo, quienes tengan el título de doctor, mediante su vinculación contractual o su integración en los departamentos de investigación de las empresas.

La autonomía estratégica de la UE no prescinde de la OTAN como pilar de la defensa colectiva

 Cuando se habla de autonomía estratégica de la Unión Europea (UE) no se pretende prescindir de la OTAN, sino de alcanzar capacidad para actuar cuando los intereses europeos no coincidan con los de esta organización, que se mantiene como pilar de la defensa colectiva occidental, y en concierto con la ONU, que tiene la legalidad internacional. Pero expertos analistas mantienen que, antes de que la UE desarrolle su Cooperación Permanente Estructurada en Defensa, impulsada por Alemania, Francia, Italia y España, habría que saber para qué quiere aumentar y cómo su capacidad operativa. “La autonomía estratégica de la UE: ¿Podemos ser autónomos?” fue el título de la sesión celebrada por la Real Academia de Doctores de España (RADE), que abordó este tema de actualidad, presidida por Jesús Álvarez Fernández-Represa, titular de la RADE.

Gustavo Suárez Pertierra, Académico de Número de la Sección de Derecho, y exministro de Educación y de Defensa, introdujo el debate y planteó cuestiones esenciales, como: ¿estamos en condiciones de afrontar solos nuestra defensa y seguridad o debemos seguir en el vínculo atlántico que tiene sus propios liderazgos?, ¿podemos prescindir de las opiniones públicas que no son partidarias de aumentar el gasto en defensa?

Para Elena Gómez Castro, Directora General de Política de Defensa del Ministerio de Defensa, que ha sido representante adjunta de España ante el Consejo de la OTAN, la autonomía estratégica de la UE ha existido desde el principio, como demuestran sus intervenciones en distintos escenarios internacionales, con la presencia simultánea, a veces, de la OTAN y la ONU. “Lo decisivo es el nivel y la ambición que nos marcamos”.

Del Tratado de Lisboa nació la idea de defensa colectiva con una Europa de varias velocidades, para que determinados países intervengan en conflictos en nombre de la UE. En 2016 se estableció la Estrategia Global de Política Exterior y de Seguridad de la UE “Una visión común, una actuación conjunta: una Europa más fuerte”, con la que se alcanza el principio de madurez estratégica iniciado en 2003 con el “Documento Solana”, “La estrategia de seguridad europea: una Europa segura en un mundo mejor”, afirmó la directora general. Esta estrategia dispone que la UE debe ser autónoma y, a la vez, complementaria de la OTAN, como pilar de la defensa colectiva, y en concierto con la ONU, que ostenta la legalidad internacional. A finales de 2016, los miembros de la UE afirmaron en Bratislava que reforzar la política de seguridad es parte de los ejes del relanzamiento del proyecto europeo.

Mantener relaciones con la OTAN y la ONU

Disponer de autonomía estratégica permite a la UE actuar en solitario cuando lo considere necesario, aunque siempre prefiera intervenir con sus socios regionales o internacionales, indicó la directora general. Para eso se requieren las capacidades de decidir y de ejecutar, que precisan desarrollar los aspectos operativos y consolidar la base tecnológica e industrial. Es fundamental mantener la relación de la UE con la OTAN, continuó, asumiendo sus propias responsabilidades, porque los intereses de la OTAN y de la UE no siempre coinciden, y sus ambiciones no son siempre similares. Por eso existen ya mecanismos que fortalecen esta vinculación, cuyas bases se fijaron en Varsovia el año pasado.

Gómez Castro resaltó que “se ha progresado de forma vertiginosa en esta suerte de euro de la defensa, con una mayor implicación de la Comisión Europea en aspectos de industria militar, que siempre presenta aspectos conflictivos en las opiniones públicas y los parlamentos de algunos países miembros. En todo caso, las tecnologías de doble uso tienen gran importancia para el desarrollo industrial, la competitividad y el empleo, además de garantizar el autoabastecimiento.

“Sin España no habría política común europea de defensa”, agregó la directora general, porque es el único país que ha contribuido de forma permanente y sustancial a todas las operaciones militares de la UE y, en año y medio, asumirá el mando de cuatro de las seis operaciones militares en curso. “La UE sigue siendo un proceso inconcluso, pero la defensa será uno de los pilares fundamentales para que sea realmente autónoma”, concluyó Gómez Castro.

La UE necesita mayor unidad

“La UE tiene que afirmarse más, y para ello tiene que estar más junta”, manifestó el embajador Carlos Miranda que, además de varios cargos en Asuntos Exteriores, ha sido representante de España en el Consejo de la OTAN en dos periodos. Miranda precisó que su ambición es que en la OTAN y en la ONU haya un único embajador de la UE y que, mientras tanto, digan todos lo mismo, sin matices.

Según Miranda, lo principal es distinguir entre autonomía y autarquía. Hoy, prosiguió, estamos todos relacionados con amigos y con potenciales enemigos también. A pesar de la llegada de Trump a la presidencia de los Estados Unidos, este país sigue siendo un amigo imprescindible para Europa. Aseguró el embajador que la UE debe tener más fuste internacional, tanto en lo político como en lo militar, y debe ponerse al nivel de EE. UU., China y Rusia en este último campo.

La gobernanza económica es fundamental para la defensa, advirtió Miranda, porque tiene que haber presupuestos comunes. Señaló que no sabe si la UE tendrá que hacer una alianza europea de defensa que tenga cabida en la OTAN y capacidad de operación propia, con sus brazos tendidos a los que no están en la Alianza Atlántica o no son de la UE, entre los que habrá que incluir al Reino Unido. Pero, subrayó que lo importante serán las preguntas: qué territorio se defiende, por quién, contra quiénes...; porque si hay un compromiso de defensa, las opiniones públicas se preguntarán, por ejemplo, por qué van a defender a otro país solo cuatro miembros de la Unión.

La UE debe definir su papel militar en el mundo

Para Félix Arteaga Martín, analista principal de seguridad y defensa del Real Instituto Elcano y oficial de la escala superior en la reserva, “los analistas no acabamos de entender el concepto de autonomía estratégica”, del que en Europa no hay una única interpretación, sino muchas. Esta definición estaba vinculada a la industria de la defensa desde los objetivos de Helsinki, cuando no había política exterior de la UE y se formulaba en términos de capacidades.

Lo que interesa, manifestó Arteaga, no son las capacidades, sino saber para qué se quieren. “Lo que primero debemos decidir es qué queremos hacer en el mundo, y luego veremos el tipo de equipos que necesitamos”. La idea, dijo, es aprovechar la autonomía estratégica para desarrollar nuestras capacidades industriales. Pero, al final, el nivel de ambición de la UE consiste en continuar haciendo lo de siempre, mientras que la defensa es cosa de la OTAN. “O sea, que la autonomía estratégica es para hacer más de lo mismo, no para hacer defensa, pero desarrollando nuestras capacidades industriales”.

En el concepto de autonomía estratégica intervienen muchos elementos, apuntó: soberanía nacional, economía, cultura estratégica, desarrollo industrial, etc. “La UE tiene más autonomía estratégica ahora que hace meses, pero no tanto como decía la directora general y sigue estando muy limitada”, según Arteaga. Al analizar este asunto, el Instituto Elcano se encontró con que países grandes de Europa entendían la autonomía estratégica con un enfoque de complementariedad y referida al núcleo de los intereses nacionales. Eso supone que todos los países tienen responsabilidades no compartidas que deben cubrir, y que si la UE les da mayor autonomía puede serles útil en la medida que les aporte algo. Cuando Francia y Alemania ponen en marcha propuestas a las que nos adherimos los demás, entienden la autonomía estratégica europea como complementaria de sus industrias.

La cuestión es, sin embargo, política, explicó Arteaga, porque la decisión de emplear la fuerza militar es de cada estado soberano, que puede no estar de acuerdo en el último momento por motivos internos (elecciones, cultura estratégica, problemas presupuestarios....). Al establecer la Cooperación Estructurada Permanente en Defensa, “los gobiernos tendrán que decidir si conservan su competencia estatal y cuándo van a renunciar a ella, porque llegará un momento en que la decisión será irreversible”, aseveró. Tenemos que saber y definir si existen riesgos compartidos o no por los países miembros, las necesidades específicas que esas amenazas suponen, qué problemas operativos vamos a tener, de qué elementos económicos y militares vamos a disponer y de qué forma los vamos a utilizar. Desde el momento en que no hay amenazas compartidas y se cuenta con recursos asimétricos resulta muy difícil ponerse de acuerdo, porque la autonomía estratégica compartida empieza donde acaba la propia. Si el esfuerzo tecnológico se orienta a riesgos de seguridad y defensa de dentro de 30 años, los resultados tendrán valor de mercado; pero si se dedica a cubrir huecos, mantener plantillas y tapar agujeros de la crisis económica, su utilidad es muy corta, argumentó Arteaga, para quien la UE tiene un armamento desfasado, al menos, una generación respecto a la norteamericana, y esa diferencia puede mantenerse en el futuro.

Se calcula que los objetivos europeos de seguridad, como inmigración, control de fronteras y lucha antiterrorista se llevará un 1 por ciento del presupuesto comunitario; y si se añaden misiones internacionales, desarrollo de capacidades, actuaciones de seguridad exterior y otras más, se alcanzaría un 5 por ciento. Por tanto, las instituciones europeas deberán decidir si su gasto en política de defensa lo sacan de su política agraria, de los fondos estructurales o de otras políticas.

¿Puesta en común o cesión de soberanía?

Durante el coloquio, Arteaga puntualizó que el proyecto actual de autonomía estratégica de la UE permite ir más deprisa a los que quieran hacerlo. Alemania y Francia han definido los criterios y ponen unas condiciones que les favorecen en lo industrial, institucional y operativo. Italia y España se han sumado por una decisión política europeista. Con los que han mostrado interés por entrar en el acuerdo se puede alcanzar una mayoría cualificada. El asunto está en cómo se va a compensar la situación para los demás países, lo que requiere un periodo de reflexión; pero el proceso va muy lanzado. No obstante, Arteaga sostuvo que la propuesta se acabará aceptando, “porque interesa a las fuerzas armadas de todos los países defenderse con una bandera europea y no nacional; sobre todo, cuando no hay cultura estratégica y a los partidos les parece bien que se racionalice el sector. Mientras, solo nos oponemos a ella cuatro analistas impertinentes”, terminó Arteaga.

Por su parte, la directora general mantuvo que, si hubiera una defensa común, no haría falta una cooperación estructurada permanente, por lo que estamos en un punto intermedio. España, objetó, no ha sido un convidado de piedra en este proceso, sino un contribuyente activo a la redacción de los criterios. De lo que se trata es de no retrasar las decisiones operativas, para que los que se comprometan lleven a cabo las misiones. “No hay concesión de soberanía. Lo que se hace es fijar criterios de autorresponsabilidad y autogobierno, de cómo se van a gestionar los fondos de defensa y cómo van a gastarse, etc.”

En opinión de Miranda, lo que se plantea para la UE no solo es un tema de defensa, sino también económico. El problema es encontrar los elementos de compensación, que son difíciles pero negociables, lo que pone de relieve las trabas de la UE para llegar a una federación real. “Yo siempre prefiero la puesta en común de soberanía a la cesión de soberanía. Pero en materia de defensa es más delicado y difícil de integrar, porque es lo que más afecta a la soberanía para llegar a una puesta en común”.

La autonomía estratégica de la UE no prescinde de la OTAN como pilar de la defensa colectiva

• El establecimiento de una política militar común europea avanza sin resolver cuestiones previas que expertos analistas consideran fundamentales
• Elena Gómez, Directora General de Política de Defensa del Ministerio de Defensa: autonomía estratégica de la UE ha existido desde el principio, como demuestran sus intervenciones en distintos escenarios internacionales
• Embajador Carlos Miranda: Lo importante serán las preguntas: qué territorio se defiende, por quién, contra quiénes...
• Félix Arteaga, analista de seguridad: Al final, la autonomía estratégica es para hacer más de lo mismo, no para hacer defensa, pero desarrollando nuestras capacidades industriales

- Pie de foto.- Carlos Miranda, Gustavo Suárez Pertierra, Jesús Álvarez Fernández-Represa, Elena Gómez Castro, y Félix Arteaga Martín.

MADRID (26-09-17).- Cuando se habla de autonomía estratégica de la Unión Europea (UE) no se pretende prescindir de la OTAN, sino alcanzar capacidad para actuar cuando los intereses europeos no coincidan con los de esta organización, que se mantiene como pilar de la defensa colectiva occidental, y en concierto con la ONU, que tiene la legalidad internacional. Pero analistas críticos mantienen que, antes de que la UE desarrolle su Cooperación Permanente Estructurada en Defensa, impulsada por Alemania, Francia, Italia y España, hay que saber para qué quiere aumentar y cómo su capacidad operativa. “La autonomía estratégica de la UE: ¿Podemos ser autónomos?” fue el título de la sesión celebrada por la Real Academia de Doctores de España (RADE), que abordó el tema presidida por Jesús Álvarez Fernández-Represa, titular de la RADE.

Gustavo Suárez Pertierra, académico numerario de la Sección de Derecho, y exministro de Educación y de Defensa, introdujo el debate con cuestiones esenciales, como: ¿estamos en condiciones de afrontar solos nuestra defensa y seguridad o debemos seguir en el vínculo atlántico que tiene sus propios liderazgos?, ¿podemos prescindir de las opiniones públicas que no son partidarias de aumentar el gasto en defensa?

Para Elena Gómez Castro, Directora General de Política de Defensa del Ministerio de Defensa, que ha sido representante adjunta de España ante el Consejo de la OTAN, la autonomía estratégica de la UE ha existido desde el principio, como demuestran sus intervenciones en distintos escenarios internacionales, con la presencia simultánea, a veces, de la OTAN y la ONU. “Lo decisivo es el nivel y la ambición que nos marcamos”, matizó. Del Tratado de Lisboa nació la idea de defensa colectiva con una Europa de varias velocidades, para que determinados países intervengan en conflictos en nombre de la UE. En 2016 se estableció la Estrategia Global de Política Exterior y de Seguridad de la UE “Una visión común, una actuación conjunta: una Europa más fuerte”, con la que se alcanzó el principio de madurez estratégica iniciado en 2003 con el “Documento Solana”, “La estrategia de seguridad europea: una Europa segura en un mundo mejor”. Esta estrategia, aseguró la directora general, dispone que la UE debe ser autónoma y, a la vez, complementaria de la OTAN, como pilar de la defensa colectiva, y en concierto con la ONU, que ostenta la legalidad internacional. A finales de 2016, los miembros de la UE afirmaron en Bratislava que reforzar la política de seguridad es parte de los ejes del relanzamiento del proyecto europeo.

Mantener relaciones con la OTAN y la ONU

Disponer de autonomía estratégica permite a la UE actuar en solitario cuando lo considere necesario, aunque siempre prefiera intervenir con sus socios regionales o internacionales, indicó Gómez Castro. Para eso se requieren capacidades de decidir y de ejecutar, desarrollar los aspectos operativos y consolidar la base tecnológica e industrial. Es fundamental mantener la relación de la UE con la OTAN, continuó, asumiendo sus propias responsabilidades, porque los intereses de la OTAN y de la UE no siempre coinciden, y sus ambiciones no son siempre similares. Por eso existen ya mecanismos que fortalecen esta vinculación, cuyas bases se fijaron en Varsovia el año pasado.

Gómez Castro resaltó que “se ha progresado de forma vertiginosa en esta suerte de euro de la defensa, con una mayor implicación de la Comisión Europea en aspectos de industria militar, que siempre presenta aspectos conflictivos en las opiniones públicas y los parlamentos de algunos países miembros. En todo caso, las tecnologías de doble uso tienen gran importancia para el desarrollo industrial, la competitividad y el empleo, además de garantizar el autoabastecimiento.

“Sin España no habría política común europea de defensa”, agregó la directora general, porque es el único país que ha contribuido de forma permanente y sustancial a todas las operaciones militares de la UE y, en año y medio, asumirá el mando de cuatro de las seis operaciones militares en curso. “La UE sigue siendo un proceso inconcluso, pero la defensa será uno de los pilares fundamentales para que sea realmente autónoma”, concluyó Gómez Castro.

La UE necesita mayor unidad

“La UE tiene que afirmarse más, y para ello tiene que estar más junta”, manifestó el embajador Carlos Miranda que, además de varios cargos en Asuntos Exteriores, ha sido representante de España en el Consejo de la OTAN en dos periodos. Miranda precisó que su ambición es que en la OTAN y en la ONU haya un único embajador de la UE y que, mientras tanto, digan todos lo mismo, sin matices.

Según Miranda, lo principal es distinguir entre autonomía y autarquía. Hoy, prosiguió, estamos todos relacionados con amigos y con potenciales enemigos también. A pesar de la llegada de Trump a la presidencia de los Estados Unidos, este país sigue siendo un amigo imprescindible para Europa. Aseguró el embajador que la UE debe tener más fuste internacional, tanto en lo político como en lo militar, y debe ponerse al nivel de EE. UU., China y Rusia en este último campo.

La gobernanza económica es fundamental para la defensa, advirtió Miranda, porque tiene que haber presupuestos comunes, y señaló que no sabe si la UE tendrá que hacer una alianza europea de defensa que tenga cabida en la OTAN y capacidad de operación propia, con sus brazos tendidos a los que no están en la Alianza Atlántica o no son de la UE, entre los que habrá que incluir al Reino Unido. Pero, subrayó que lo importante serán las preguntas: qué territorio se defiende, por quién, contra quiénes...; porque si hay un compromiso de defensa, las opiniones públicas se preguntarán, por ejemplo, por qué van a defender a otro país solo cuatro miembros de la Unión.

La UE debe definir su papel militar en el mundo

Para Félix Arteaga Martín, analista principal de seguridad y defensa del Real Instituto Elcano y oficial de la escala superior en la reserva, “los analistas no acabamos de entender el concepto de autonomía estratégica”, del que en Europa no hay una única interpretación, sino muchas. Esta definición estaba vinculada a la industria de la defensa desde los objetivos de Helsinki, cuando no había política exterior de la UE y se formulaba en términos de capacidades.

Lo que interesa, manifestó Arteaga, no son las capacidades, sino saber para qué se quieren. “Lo que primero debemos decidir es qué queremos hacer en el mundo, y luego veremos el tipo de equipos que necesitamos”. La idea, dijo, es aprovechar la autonomía estratégica para desarrollar nuestras capacidades industriales. Pero, al final, el nivel de ambición de la UE consiste en continuar haciendo lo de siempre, mientras que la defensa es cosa de la OTAN. “O sea, que la autonomía estratégica es para hacer más de lo mismo, no para hacer defensa, pero desarrollando nuestras capacidades industriales”.

En el concepto de autonomía estratégica intervienen muchos elementos, apuntó: soberanía nacional, economía, cultura estratégica, desarrollo industrial, etc. “La UE tiene más autonomía estratégica ahora que hace meses, pero no tanto como decía la directora general y sigue estando muy limitada”, según Arteaga. Al analizar este asunto, el Instituto Elcano se encontró con que países grandes de Europa entendían la autonomía estratégica con un enfoque de complementariedad y referida al núcleo de los intereses nacionales. Eso supone que todos los países tienen responsabilidades no compartidas que deben cubrir, y que si la UE les da mayor autonomía puede serles útil en la medida que les aporte algo. Cuando Francia y Alemania ponen en marcha propuestas a las que nos adherimos los demás, entienden la autonomía estratégica europea como complementaria de sus industrias.

La cuestión es política, explicó Arteaga, porque la decisión de emplear la fuerza militar es de cada estado soberano, que puede no estar de acuerdo en el último momento por motivos internos (elecciones, cultura estratégica, problemas presupuestarios....). Al establecer la Cooperación Estructurada Permanente en Defensa, “los gobiernos tendrán que decidir si conservan su competencia estatal y cuándo van a renunciar a ella, porque llegará un momento en que la decisión será irreversible”, aseveró. Tenemos que saber y definir si existen riesgos compartidos o no por los países miembros, las necesidades específicas que esas amenazas suponen, qué problemas operativos vamos a tener, de qué elementos económicos y militares vamos a disponer y de qué forma los vamos a utilizar. Desde el momento en que no hay amenazas compartidas y se cuenta con recursos asimétricos resulta muy difícil ponerse de acuerdo, porque la autonomía estratégica compartida empieza donde acaba la propia. Si el esfuerzo tecnológico se orienta a riesgos de seguridad y defensa de dentro de 30 años, los resultados tendrán valor de mercado; pero si se dedica a cubrir huecos, mantener plantillas y tapar agujeros de la crisis económica, su utilidad es muy corta, argumentó Arteaga, para quien la UE tiene un armamento desfasado, al menos, una generación respecto a la norteamericana, y esa diferencia puede mantenerse en el futuro.

Se calcula que los objetivos europeos de seguridad, como inmigración, control de fronteras y lucha antiterrorista se llevará un 1 por ciento del presupuesto comunitario; y si se añaden misiones internacionales, desarrollo de capacidades, actuaciones de seguridad exterior y otras más, se alcanzaría un 5 por ciento. Por tanto, las instituciones europeas deberán decidir si su gasto en política de defensa lo sacan de su política agraria, de los fondos estructurales o de otras políticas.

Félix Arteaga: “Solo nos oponemos cuatro analistas impertinentes”

Durante el coloquio, Arteaga puntualizó que el proyecto actual de autonomía estratégica de la UE permite ir más deprisa a los que quieran hacerlo. Alemania y Francia han definido los criterios y ponen unas condiciones que les favorecen en lo industrial, institucional y operativo. Italia y España se han sumado por una decisión política europeista, y con los que han mostrado interés por entrar en el acuerdo se puede alcanzar una mayoría cualificada. El asunto está en cómo se va a compensar la situación para los demás países, lo que requiere un periodo de reflexión; pero el proceso va muy lanzado. No obstante, Arteaga sostuvo que la propuesta se acabará aceptando, “porque interesa a las fuerzas armadas de todos los países defenderse con una bandera europea y no nacional; sobre todo, cuando no hay cultura estratégica y a los partidos les parece bien que se racionalice el sector. Mientras, solo nos oponemos a ella cuatro analistas impertinentes”, terminó Arteaga.

Por su parte, la directora general mantuvo que, si hubiera una defensa común, no haría falta una cooperación estructurada permanente, por lo que estamos en un punto intermedio. España, objetó, no ha sido un convidado de piedra en este proceso, sino un contribuyente activo a la redacción de los criterios. De lo que se trata es de no retrasar las decisiones operativas, para que los que se comprometan lleven a cabo las misiones. “No hay concesión de soberanía. Lo que se hace es fijar criterios de autorresponsabilidad y autogobierno, de cómo se van a gestionar los fondos de defensa y cómo van a gastarse, etc.”

En opinión de Miranda, lo que se plantea para la UE no solo es un tema de defensa, sino también económico. El problema es encontrar los elementos de compensación, que son difíciles pero negociables, lo que pone de relieve las trabas de la UE para llegar a una federación real. “Yo siempre prefiero la puesta en común de soberanía a la cesión de soberanía. Pero en materia de defensa es más delicado y difícil de integrar, porque es lo que más afecta a la soberanía para llegar a una puesta en común”.

La Administración estudia cómo eliminar ibuprofeno y drogas de las aguas residuales de Madrid

Ibuprofeno, disruptores endocrinos o drogas son algunos de los contaminantes emergentes cuya eliminación va a estudiar el Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente, dentro del proyecto para mejorar y ampliar el sistema de depuración de los vertidos urbanos de Madrid, que el departamento planea en colaboración con el ayuntamiento y la comunidad autónoma, según el Subdirector General Adjunto de Infraestructuras y Tecnología del ministerio, Ángel Cajigas Delgado, que intervino en la sesión “La salud de nuestros ríos”, organizada por la Real Academia de Doctores de España (RADE).

Después de que el Presidente de la RADE, Jesús Álvarez Fernández-Represa abriera el acto, tercero de los programados sobre el agua, Manuel Ramón Llamas Madurga, Académico de Número de la Sección de Ciencias Experimentales, citó dos problemas relevantes en esta materia: el reparto de competencias entre distintas administraciones, por un lado, y la pusilanimidad de los políticos que no se atreven a aplicar la norma de que el que contamina, paga. Si en el Segura y el Nervión se han resuelto los problemas que afectaban a sus cuencas, ¿por qué no se pueden resolver en el resto de nuestros ríos?, se preguntó Llamas.

Cajigas explicó, de entrada, la evolución del concepto calidad del agua en la UE y las dificultades que plantean las sucesivas directivas comunitarias publicadas en esta materia, hasta llegar a la norma actualmente en vigor, la directiva marco de 2000, cuyo cumplimiento es muy difícil, advirtió, “por no decir imposible”, porque se pasa de medir la calidad del agua con parámetros fisicoquímicos a considerar el estado de las masas de agua, una idea que se ha tenido que ir interpretando.

Depurar solo no basta

La masa de agua debe tener un buen estado ecológico y químico, continuó Cajigas al intentar describir el sentido de la directiva marco. Hay que medir indicadores biológicos, como fitoplancton o macroinvertebrados. Ya no se trata solo del fósforo o el nitrógeno. Se considera buen estado de las masas de agua el que había antes de la intervención humana, lo que supone que se tendrían que haber tirado todas las presas, por ejemplo. En resumen, que haciendo solo depuración, “nunca vamos a cumplir la directiva marco”, subrayó.

Al preguntarse sobre la situación de nuestros ríos, Cajigas dijo que Bruselas se centra en que no se cumplen los requisitos de depuración en quince casos, que son los que justifican la multa que se está tramitando contra España. La depuración de aguas cumple en más del 80 por ciento las normas de eliminación de materia orgánica, prosiguió, pero muchos incumplimientos se deben a que las instalaciones no se operan bien, además de otras causas derivadas del reparto de competencias sobre el agua entre distintas administraciones o de decisiones judiciales que, como en un caso, obligan a derribar una depuradora en Asturias que ha costado 20 millones de euros y no ha entrado en funcionamiento, para hacer un nuevo estudio de impacto ambiental.

Nuestros ríos no están como deberían, insistió Cajigas. Cumplimos algo más del 70 por ciento en la eliminación de nutrientes. Las depuradoras han mejorado el perfil ambiental de los ríos respecto al amonio, que es un contaminante que preocupa, pero hay casi un 40 por ciento que está en el límite. Solo un 50 por ciento de las masas de agua está en buen estado ecológico, destacó, y “hay que depurar más y mejor, pero no solo depurar, sino actuar en las márgenes para mejorar el perfil ecológico del río”.

Respecto al proyecto para mejorar la depuración de las aguas residuales de Madrid, el responsable ministerial puntualizó que sus efectos no se verán hasta dentro de treinta años, al menos, y que no se comenzará hasta dentro de ocho a causa de los trámites administrativos. No se trata solo, matizó, de atender la demanda biológica de oxigeno, sino de eliminar nutrientes (nitrógeno, fósforo…), cumpliendo niveles exigentes, además de estudiar la forma de tratar los contaminantes emergentes: fármacos como el ibuprofeno, que empieza a tener una presencia preocupante, drogas y disruptores endocrinos. “Un trabajo que nos va a tener ocupados unos dos años”, concluyó el Subdirector General.

Nuevas tecnologías depuradoras limpias

Utilizar métodos descontaminantes que no aporten más toxicidad que la de los elementos que se quieren depurar es el reto de la evolución tecnológica que afrontan los científicos, como puso de relieve Arturo Romero Salvador, Académico de Número de la Sección de Ciencias Experimentales de la RADE.

Es preciso caracterizar el estado de las aguas para determinar las operaciones de depuración, atendiendo a distintos parámetros: unos físicos, como turbidez, presencia de sólidos, color, sabor, etc.; otros químicos, como dureza, materia orgánica, demanda biológica de oxígeno, metales pesados, pesticidas….; y, finalmente, los biológicos, que se miden en las aguas incorporadas al río.

Las depuradoras tiene que eliminar las grasas y los sólidos, que se vierten por el inodoro o la pila de la cocina. Los sólidos se quitan por sedimentación. La materia orgánica tiene un tratamiento secundario para convertirla en CO2 y agua por medios biológicos, como fangos activados y otros métodos basados en organismos aerobios, lo que exige introducir permanentemente oxígeno, que supone la mayor parte del consumo energético de la depuradora. Eliminar nutrientes, que junto con la materia orgánica provocan la eutrofización de los ríos, requiere introducir reactivos desaconsejables, cuyo uso se puede evitar si se sustituye el fósforo de los detergentes, en forma de fosfatos, por otros compuestos, como las zeolitas, afirmó Romera.

Se pueden destruir organismos patógenos por oxidación o metales pesados con tratamientos avanzados, como la separación por membranas, “pero el problema es el coste”, aseguró Romero. Por eso, interesa diseñar tecnologías cuantitativamente, conocer sus límites económicos y de aplicación, contra qué contaminantes se emplean y cuál es la composición del agua usada en las industrias. Una dificultad de la materia orgánica es que una parte puede ser biodegradable, y se puede quitar con microorganismos aerobios por oxidación, y otra no. En este campo se está investigando mucho para generar oxidantes de gran capacidad. En todo caso, las soluciones pasan por pensar de forma diferente a la habitual, añadió, y considerar el agua contaminada como recurso del que sacar agua limpia, energía, nitrógeno o fósforo. Es decir, aprovechar el agua residual para, por ejemplo, obtener metano por un proceso anaerobio y usarlo como energía, con lo que se consigue eficiencia energética.

Un problema serio de déficit hídrico

Miguel Ángel Ródenas Cañada, Presidente de la Confederación Hidrográfica del Segura, expuso el proyecto de recuperación ambiental de este río, galardonado con el European Riverprize 2016, entre otros reconocimientos. La cuenca del Segura es, dijo, la más pobre en términos de agua de toda la UE continental, con menos de 450 milímetros de lluvia, en una zona especialmente adecuada para la producción vegetal y con una gran cultura de regadío, que sostiene una importante industria agraria, tecnologías, mercados, logística, transportes y puestos de trabajo. En toda Europa se consumen vegetales producidos en esta zona que multiplican por diez su coste de producción.

De la cuenca del Segura sale un 30 por ciento de la producción nacional de frutas y hortalizas, que continuó creciendo a pesar de la crisis de 2007, que alcanza los cinco millones de toneladas, equivalentes a 700 camiones de 20 toneladas todos los días, con un valor de 4.300 millones de euros, cuando la zona representa un 4 por ciento de la población y el territorio del país. Por su parte, el coste del proyecto alcanzó los 700 millones, financiados por la UE, el gobierno y los municipios, que aportaron terrenos.

El régimen de agua del Segura es de 330 metros cúbicos por habitante y año en el Segura, cuando en toda España es de mil y en otros países llega a 20.000. De los recursos hídricos de la zona un 14 por ciento procede de la reutilización de aguas residuales, y un 8 de la desalación, unas cuotas que son de las más altas del mundo. “Pero hay un problema de déficit hídrico que debe ser recogido en la planificación nacional”

La vida ha vuelto al colector de aguas residuales

El Segura era un colector de aguas residuales que ocasionaba grandes problemas y manifestaciones que reclamaban soluciones. El gran problema para la confederación era la coincidencia de cuatro comunidades autónomas con competencias en la cuenca del Segura, según Ródenas, que es una de las mayores dificultades para gestionar el agua y rompe la idea de cuenca. El proyecto de recuperación se planteó a lo largo de diez años con los objetivos de conseguir más agua para la agricultura, recuperar el río y la naturaleza y cumplir las directivas europeas del agua. Se construyeron infraestructuras para tratar las aguas industriales en origen y un marco legal para que quien contamine, pague; y se instauró un impuesto por contaminar y para depurar, además de un ente para controlar esa gestión.

El plan copió el modelo de California de depuración de nitrógeno y fósforo con tratamientos terciarios avanzados de desinfección por radiación ultravioleta. Se construyeron cuarenta y seis plantas en un tiempo récord de diez años. Hoy, el 99 por ciento del agua se trata, mientras en Europa andan por el 75 por ciento. La contaminación actual del río no llega a un 3 por ciento, y la vida ha vuelto a sus aguas, resaltó Ródenas. Se han recuperado la nutria, un indicador biológico de primer nivel, y la anguila. Las aves migratorias, algunas de ellas especies en peligro de extinción, utilizan enormes balsas de agua que se han limpiado, lo que ha merecido la declaración de humedal de importancia internacional por la Convención Internacional de Ramsar.

Pero no era suficiente, según Ródenas. Había que recuperar los fangos contaminados, para lo que se usaron ladrillos de bacterias que convirtieron la materia orgánica en inerte, que se extrajo con camiones; y se retiraron especies invasoras, como la caña, para crear una vegetación autóctona de ribera.

La Administración estudia cómo eliminar ibuprofeno y drogas de las aguas residuales de Madrid

• Subdirector general adjunto de Infraestructuras y Tecnología: Solo la mitad de las masas de agua de España está en buen estado ecológico
• Todos los intervinientes en la sesión sobre la salud de nuestros ríos, organizada por la RADE, coinciden en que el reparto de competencias entre administraciones afecta a la gestión de las aguas y la unidad de cauce
• Utilizar métodos descontaminantes que no aporten más toxicidad que la de los elementos que se quieren depurar es el reto de la evolución tecnológica, según el académico Arturo Romero
• La recuperación ambiental de la cuenca del Segura, un ejemplo reconocido internacionalmente y de gran repercusión económica para la zona


- Pie de foto.- Ángel Cajigas Delgado, subdirector general adjunto de Infraestructuras y Tecnología del Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente. A su lado, el académico Manuel Ramón Llamas.

MADRID (02-10-17).- Ibuprofeno, disruptores endocrinos o drogas son algunos de los contaminantes emergentes cuya eliminación va a estudiar el Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente, dentro del proyecto para mejorar y ampliar el sistema de depuración de los vertidos urbanos de Madrid, que el departamento planea en colaboración con el ayuntamiento y la comunidad autónoma, según el subdirector general adjunto de Infraestructuras y Tecnología del ministerio, Ángel Cajigas Delgado, que intervino en la sesión “La salud de nuestros ríos”, organizada por la Real Academia de Doctores de España (RADE).

Los efectos del proyecto no se verán hasta dentro de 30 años, al menos, y no se comenzará hasta dentro de ocho, por los trámites administrativos, advirtió el responsable ministerial. No se trata solo, matizó, de atender la demanda biológica de oxigeno, sino de eliminar nutrientes (nitrógeno, fósforo…), cumpliendo niveles exigentes, además de estudiar la forma de tratar los contaminantes emergentes: fármacos como el ibuprofeno, que empieza a tener una presencia preocupante, drogas y disruptores endocrinos. “Un trabajo que nos va a tener ocupados unos dos años”, concluyó el Subdirector General.

Al introducir el tema, Manuel Ramón Llamas Madurga, académico de número de la Sección de Ciencias Experimentales, citó dos problemas relevantes en esta materia: el reparto de competencias entre distintas administraciones, por un lado, y la pusilanimidad de los políticos que no se atreven a aplicar la norma de que el que contamina, paga. Si en el Segura y el Nervión se han resuelto los problemas que afectaban a sus cuencas, ¿por qué no se pueden resolver en el resto de nuestros ríos?, se preguntó Llamas.

Depurar solo no basta

Al iniciar su intervención, Cajigas explicó la evolución del concepto calidad del agua en la UE y las dificultades que plantean las sucesivas directivas comunitarias publicadas en esta materia, hasta llegar a la norma actualmente en vigor, la directiva marco de 2000, cuyo cumplimiento es muy difícil, advirtió, “por no decir imposible”, porque se pasa de medir la calidad del agua con parámetros fisicoquímicos a considerar el estado de las masas de agua, una idea que se ha tenido que ir interpretando.

La masa de agua debe tener un buen estado ecológico y químico, continuó Cajigas al intentar describir el sentido de la directiva marco. Hay que medir indicadores biológicos, como fitoplancton o macroinvertebrados. Ya no se trata solo del fósforo o el nitrógeno. Se considera buen estado de las masas de agua el que había antes de la intervención humana, lo que supone que se tendrían que haber tirado todas las presas, por ejemplo. En resumen, que haciendo solo depuración, “nunca vamos a cumplir la directiva marco”, subrayó.

Al preguntarse sobre la situación de nuestros ríos, Cajigas dijo que Bruselas se centra en que no se cumplen los requisitos de depuración en quince casos, que son los que justifican la multa que se está tramitando contra España. La depuración de aguas cumple en más del 80 por ciento las normas de eliminación de materia orgánica, prosiguió, pero muchos incumplimientos se deben a que las instalaciones no se operan bien, además de otras causas derivadas del reparto de competencias sobre el agua entre distintas administraciones o de decisiones judiciales que, como en un caso, obligan a derribar una depuradora en Asturias que ha costado 20 millones de euros y no ha entrado en funcionamiento, para hacer un nuevo estudio de impacto ambiental.

Nuestros ríos no están como deberían, insistió Cajigas. Cumplimos algo más del 70 por ciento en la eliminación de nutrientes. Las depuradoras han mejorado el perfil ambiental de los ríos respecto al amonio, que es un contaminante que preocupa, pero hay casi un 40 por ciento que está en el límite. Solo un 50 por ciento de las masas de agua está en buen estado ecológico, destacó, y “hay que depurar más y mejor, pero no solo depurar, sino actuar en las márgenes para mejorar el perfil ecológico del río”.

Prevenir la contaminación sustituyendo elementos tóxicos

Utilizar métodos descontaminantes que no aporten más toxicidad que la de los elementos que se quieren depurar es el reto de la evolución tecnológica que afrontan los científicos, como puso de relieve Arturo Romero Salvador, académico de número de la Sección de Ciencias Experimentales de la RADE.

Las depuradoras tiene que eliminar las grasas y los sólidos, que se vierten por el inodoro o la pila de la cocina. Los sólidos se quitan por sedimentación. La materia orgánica tiene un tratamiento secundario para convertirla en CO2 y agua por medios biológicos, como fangos activados y otros métodos basados en organismos aerobios, lo que exige introducir permanentemente oxígeno, que supone la mayor parte del consumo energético de la depuradora. Eliminar nutrientes, que junto con la materia orgánica provocan la eutrofización de los ríos, requiere introducir reactivos desaconsejables, cuyo uso se puede evitar con medidas preventivas, como sustituir el fósforo de los detergentes, en forma de fosfatos, por otros compuestos, como las zeolitas, afirmó Romero.

Se pueden destruir organismos patógenos por oxidación o metales pesados con tratamientos avanzados, como la separación por membranas, “pero el problema es el coste”, aseguró Romero. Por eso, interesa diseñar tecnologías cuantitativamente, conocer sus límites económicos y de aplicación, contra qué contaminantes se emplean y cuál es la composición del agua usada en las industrias. Una dificultad de la materia orgánica es que una parte puede ser biodegradable, y se puede quitar con microorganismos aerobios por oxidación, y otra no. En este campo se está investigando mucho para generar oxidantes de gran capacidad. En todo caso, las soluciones pasan por pensar de forma diferente a la habitual, añadió, y considerar el agua contaminada como recurso del que sacar agua limpia, energía, nitrógeno o fósforo. Es decir, aprovechar el agua residual para, por ejemplo, obtener metano por un proceso anaerobio y usarlo como energía, con lo que se consigue eficiencia energética.

Un problema grave de déficit hídrico

Miguel Ángel Ródenas Cañada, Presidente de la Confederación Hidrográfica del Segura, expuso el proyecto de recuperación ambiental de este río, galardonado con el European Riverprize 2016, entre otros reconocimientos. La cuenca del Segura es, dijo, la más pobre en términos de agua de toda la UE continental, con menos de 450 milímetros de lluvia, en una zona especialmente adecuada para la producción vegetal y con una gran cultura de regadío, que sostiene una importante industria agraria. Toda Europa consumen vegetales producidos en esta zona que multiplican por diez su coste de producción, agregó.

De la cuenca del Segura sale un 30 por ciento de la producción nacional de frutas y hortalizas, que alcanza los cinco millones de toneladas, equivalentes a 700 camiones de 20 toneladas todos los días, con un valor de 4.300 millones de euros, cuando la zona representa un 4 por ciento de la población y del territorio del país. Por su parte, el coste del proyecto alcanzó los 700 millones, financiados por la UE, el gobierno y los municipios, que aportaron terrenos.

El régimen de agua del Segura es de 330 metros cúbicos por habitante y año en el Segura, cuando en toda España es de mil y en otros países llega a 20.000. De los recursos hídricos de la zona un 14 por ciento procede de la reutilización de aguas residuales, y un 8 de la desalación, unas cuotas que son de las más altas del mundo. “Pero hay un problema de déficit hídrico que debe ser recogido en la planificación nacional”, afirmó.

La vida ha vuelto al colector de aguas residuales

El Segura era un colector de aguas residuales que ocasionaba grandes problemas y manifestaciones que reclamaban soluciones. El gran problema para la confederación era la coincidencia de cuatro comunidades autónomas con competencias en la cuenca del Segura, según Ródenas, que es una de las mayores dificultades para gestionar el agua y rompe la idea de cuenca. El plan copió el modelo de California de depuración de nitrógeno y fósforo con tratamientos terciarios avanzados de desinfección por radiación ultravioleta. Se construyeron cuarenta y seis plantas en un tiempo récord de diez años. Hoy, el 99 por ciento del agua se trata, mientras en Europa andan por el 75 por ciento. La contaminación actual del río no llega a un 3 por ciento, y la vida ha vuelto a sus aguas, resaltó Ródenas. Se han recuperado la nutria, un indicador biológico de primer nivel, y la anguila. Las aves migratorias, algunas de ellas especies en peligro de extinción, utilizan enormes balsas de agua que se han limpiado, lo que ha merecido la declaración de humedal de importancia internacional por la Convención Internacional de Ramsar. Y, además, se retiraron los fangos contaminados y las especies vegetales invasoras de las riberas.

Doce tesis doctorales reciben los Premios de Investigación 2017 de la Real Academia de Doctores de España

· La entrega de las distinciones se produjo durante el acto de apertura de curso 2017-18 de la corporación
· Una vez elevado al Gobierno el informe sobre el título de doctor, la
RADE prepara sendos estudios sobre el empleo y el agua
· “No se puede renunciar y detener la investigación, mientras esta sea respetuosa y escrupulosa con la dignidad de la persona humana y con la legislación vigente”, afirmó Antonio González, presidente de la Sección de Medicina, en su discurso de apertura de curso
· “Cuando se despejen las dudas e incertidumbres que ahora tenemos en torno a la ingeniería genómica, se irán descifrando las mutaciones que dan origen a muchas mas enfermedades, otras desaparecerán, mejorará la salud de muchos niños y se evitarán no pocos abortos”, manifestó González
· “Así es, con frecuencia, el diagnóstico prenatal, una historia inevitable de desencuentros”, concluyó González

MADRID (18-10-17).- Doce investigadores, ocho varones y cuatro mujeres, han recibido los Premios de Investigación 2017 que convoca la Real Academia de Doctores de España (RADE), en colaboración con la Asociación Española de Contabilidad y Administración de Empresas (AECA), Alcaliber y Laboratorios Ovejero. La entrega de los galardones se ha realizado durante el acto solemne de apertura del curso 2017-18 de la corporación, a la que han asistido relevantes personalidades del mundo cultural y científico.

A la edición de este año se han presentado 438 tesis doctorales, cuatro más que a la anterior en la que el número de candidatos superó en un 107,6 por ciento a la precedente. Estos premios distinguen las mejores tesis publicadas por doctores españoles que han sido defendidas entre el 1 de julio de 2016 y el 14 de julio de 2017, ambos inclusive, y que han obtenido la calificación de sobresaliente cum laude.

Dos de los premiados son doctores por la Universidad Autónoma de Madrid y otros tantos, por la Complutense; el resto han alcanzado el máximo grado académico en las universidades de Alcalá de Henares, Alicante, Barcelona, Coruña, Extremadura, Granada, UNED y Zaragoza.

Cuatro galardones se han repartido ex aequo. Alejandro García Ferrero, doctor por la UNED, con Ocio y turismo en el paisaje madrileño, y Juan Velázquez González, doctor por la Universidad de Zaragoza, con La hermenéutica de la subjetividad de la existencia como "comprensión de sí mismo". Heidegger en diálogo con la tradición filosófica, han compartido el Premio RADE de Humanidades.

El Premio RADE de Ciencias de la Vida y la Salud ha correspondido a Juan Manuel Pericás Pulido, doctor por la Universidad de Barcelona y autor de la tesis Enterococcus faecalis infective endocarditis: epidemiological, clinical and therapeutic changes at the turn of the XXIst century, y a Ivan Álvarez-Twose, doctor por la Universidad de Alcalá, por su tesis Nuevas variantes clínicas y moleculares de mastocitosis: caracterización clínico-biológica e implicaciones terapéuticas.

La doctora por la Universidad Complutense Ana María Aragón Sánchez, con su investigación Optimización de propiedades de Composites magnéticos para aplicaciones a alta y baja frecuencia mediante técnicas avanzadas de aleado mecánico de materiales amorfos, e Iris Gonzalez Taboada, doctora por la Universidad da Coruña, con su trabajo Self-compacting recycled concrete: basic mechanical properties, rheology, robustness and thixotropy, han obtenido el Premio RADE de Ciencias Experimentales Tecnológicas.

El Premio AECA-RADE de Economía y Administración de Empresas se ha otorgado al doctor por la Universidad de Granada Pedro Jesús Cuadros Solas, por Essays on underwriting and reputation, y Jorge Díaz Lanchas, doctor por la Universidad Autónoma de Madrid, por Essays on city trade flows.

Ubaldo González de Frutos, doctor por la Universidad Complutense, con la tesis La equidad entre naciones en el sistema fiscal internacional, ha recibido el Premio RADE de Ciencias Jurídicas. El Premio Juan Abelló Pascual I ha sido para María José del Pino del Barrio, autora de la tesis Targeted gene therapy in a mouse model of Fanconi anemia, defendida en la Universidad Autónoma de Madrid; y el Premio Juan Abelló Pascual II, para Alejandra Abellán Llobregat, doctora por la Universidad de Alicante, por su investigación sobre Development of electrochemical sensors based on nanostructured carbon materials for health-care applications.

Finalmente, el Premio Laboratorios Ovejero se ha concedido a Daniel Bravo Barriga, doctor por la Universidad de Extremadura, por la tesis Entomofauna de Culicidae y Phlebotominae en Extremadura, España. Detección molecular de parásitos asociados (Dirofilaria spp. y Leishmania spp.).

Objetivo: mejorar el título de doctor

En el curso que acaba de terminar la corporación ha concluido una labor que deriva de uno de sus fines estatutarios, dijo en su discurso el presidente de la RADE, Jesús Álvarez Fernández-Represa: "Defender la dignificación del título de doctor, tanto en las exigencias para su obtención, como en su legítima ostentación y el ejercicio de sus prerrogativas", al haber entregado al Ministerio de Educación, Cultura y Deporte el informe Análisis y revalorización de los estudios de doctorado en España, con recomendaciones consideradas esenciales para mejorar la regulación del proceso académico que lleva a la concesión de este título.

Entre las propuestas del informe, Álvarez destacó: que las escuelas de doctorado sean las responsables de verificar que la tesis presentada es un trabajo original de investigación, que haya más financiación para los estudios de doctorado, o que se garantice la cualificación del director de la tesis y de los miembros del tribunal. Estas recomendaciones, añadió el presidente, no se estiman fundamentales solamente por parte de la RADE, sino que lo son también para los expertos de las siete universidades públicas madrileñas que han intervenido en la redacción del informe. Y han parecido importantes al resto de universidades españolas, públicas y privadas, a las que se envió el texto para someterlo a su consideración.

Empleo y agua, nuevos temas de estudio

A la culminación del informe sobre el doctorado ha seguido el comienzo de nuevos trabajos. Uno de ellos sobre el empleo, del que ya ha sido informado el Ministerio de Empleo y Seguridad Social, con el que se harán sugerencias que ayuden a resolver un problema que preocupa a todos los sectores de la sociedad española y a sus responsables políticos.

Y otro de los estudios iniciado por la RADE se refiere a un tema de enorme gravedad: la cuestión del agua, elemento tan esencial para la vida como problemático en la actualidad por motivos tan variados como el cambio climático, el crecimiento constante de la demanda, no solo de agua sino también de alimentos que requieren grandes cantidades de este líquido para su producción; la contaminación de ríos y lagos, la depuración de aguas residuales y tantos otros aspectos relacionados.

Como indicó el presidente de la institución, la ministra de Agricultura y Pesca, Alimentación y Medio Ambiente clausuró, el mes pasado, una de las sesiones que el grupo de trabajo encargado de este informe ha programado para preparar sus recomendaciones, que tanto la Academia como la administración pública esperan con gran interés, ya que el Gobierno tiene el proyecto de alcanzar un pacto nacional sobre el agua.

Impacto social de la RADE

“Con estas actividades y todas las demás que constituyen cada año el programa de trabajo de la RADE, nuestra Academia está produciendo un impacto social relevante, como pedía en su día el Rey Felipe VI a todas las reales academias, a las que exhortaba a impulsar, con aire renovador, el conocimiento y la cultura indispensables en el momento actual”, agregó Álvarez. Resaltó, a continuación, la calidad científica de las tesis presentadas a los premios, felicitó a sus autores, a los que invitó a mantenerse vinculados a la Academia; agradeció la difícil labor de selección llevada a cabo por los diferentes jurados y expresó su gratitud a las entidades patrocinadoras, Asociación Española de Contabilidad y Administración de Empresas (AECA), Alcaliber, Laboratorios Ovejero y a la Fundación Liberade, creada por la RADE, sin cuya intervención no sería posible convocar estos premios cuya finalidad es impulsar el avance de la ciencia entre los jóvenes científicos españoles.  

Generar vida

“Nunca han estado la medicina y la biología molecular tan cerca, como lo están en este momento, de poder generar, por no decir crear, vida, aunque nos cueste creerlo y admitirlo. Se están llevando a diario, en reproducción asistida, procedimientos sobre los que deberíamos reflexionar sobre su trascendencia como son los relativos a la fertilización de madres sexagenarias, la fecundación post morten, la maternidad subrogada y, sobre todo, los que se derivan de la creación y conservación de gametos y preembriones humanos”, señaló el presidente de la Sección de Medicina, de la RADE, Antonio González, en su discurso de apertura de curso titulado Implicaciones de la genética y genómica en el diagnóstico y tratamiento de las anomalías fetales.

En un detallado recorrido por la historia de los avances científicos fundamentales en el ámbito del diagnóstico prenatal, González desembocó en la ingeniería genética, desarrollada en la década de los años setenta del siglo pasado a raíz de los descubrimientos del bioquímico americano Paul Berg. Ahora, continuó, está en alza un nuevo avance tecnológico para terapia génica, la CRISPR-Cas9, “sorprendente y revolucionaria herramienta molecular que permite modificar y corregir el genoma de cualquier célula del organismo, incluidas las del ser humano”, con la que se puede borrar, cortar, añadir o modificar una secuencia o mutación anómala del ADN de determinados genes inductores de enfermedades hereditarias y sustituirla por otra mutación correctora.

Modificar o no el genoma humano, ese es el dilema

En el descubrimiento de esta técnica tuvo especial protagonismo el profesor y microbiólogo ilicitano Francis Martínez Mojica, que fue el primero que observó y describió estas variaciones del ADN estudiando el genoma de la bacteria haloferax mediterranei, presente en las salinas de Santa Pola en Alicante; además de autor del acrónimo CRISPR y quien intuyó que podía tratarse de un mecanismo creado por las bacterias, mediante ingeniería genética, para vacunarse y defenderse de las infecciones víricas, indicó el conferenciante. La trasformación de este hallazgo en una asombrosa herramienta molecular de múltiples aplicaciones terapéuticas se produjo en 2012, por Emmanuelle Charpentier, bioquímica, microbióloga y directora del Instituto Max Planck, en Berlín, y Jennifer Doudna, bioquímica y experta en farmacología molecular de la Universidad de Berkeley, galardonadas ambas con el Premio Princesa de Asturias de Investigación Científica y Técnica de 2015, por haber desarrollado “una técnica genómica que permite reescribir el genoma y corregir genes defectuosos con una precisión sin precedentes”.

No se conocen bien todavía las limitaciones y efectos secundarios de este método, ni si será aceptado como ético por la comunidad científica, advirtió González. Para Francis Mojica, dijo, “el límite tolerable de la investigación vendría señalado por la prohibición de modificar el genoma en los embriones humanos. Pero no todos los investigadores opinan lo mismo”, añadió González. El pasado 2 de agosto, la revista Nature publicó un artículo firmado por Ma. H. y sus colaboradores, entre ellos el bioquímico español Juan Carlos Izpisúa, en el que anunciaban que, con la técnica CRISPR, habían podido corregir (borrar) con éxito, por primera vez y en embriones humanos, la copia defectuosa del gen MYBPC3, una mutación especifica que causa una enfermedad rara y grave, la miocardiopatía hipertrófica, que posiblemente desaparecerá para siempre de confirmarse estos hallazgos.

La Constitución Europea prohíbe la clonación de seres humanos para modificar a la carta alguna característica genética, y una ley española regula cómo conservar, custodiar y eliminar un preembrión. “La controversia radica —según González— en que, independientemente del fin para el que fueron creados (investigación, terapia génica o problemas de esterilidad), cabe reconocer de hecho la existencia de dos tipos o clases de preembriones, válidos unos y no tan válidos, por decirlo de alguna manera, otros, que además de ser relegados o sustituidos por los primeros, podrían quedar incursos en un destino final mucho mas incierto”. “Un farragoso y problemático escenario bioético en el que conviene diferenciar bien lo que la ciencia permite y es capaz de aportar en favor de la vida, y lo que la ética admite para proteger la vida humana”.

Avanzar en investigación y defender la dignidad humana

“Creemos que no se puede renunciar y detener la investigación, mientras esta sea respetuosa y escrupulosa con la dignidad de la persona humana y con la legislación vigente. Las técnicas y los procedimientos no son ni buenos ni malos en sí mismos, es el uso que se hace de ellos el que los hace aceptables o no”, destacó el orador, en cuya opinión, “deberíamos poder evitar, a toda costa, la confrontación entre el poder incitador y provocador que abandera la investigación y el talento creativo, base del progreso científico, y el afán, no menos firme y necesario, de defender a ultranza la dignidad y el respeto hacia la persona humana”.

“Cuando se despejen las dudas e incertidumbres que ahora tenemos en torno a la ingeniería genómica, se irán descifrando las mutaciones que dan origen a muchas mas enfermedades, otras desaparecerán, mejorará la salud de muchos niños y se evitarán no pocos abortos”, manifestó González. “Me satisface poder oír ya persistentes rumores sobre otros grandes avances tecnológicos que se acercan, como la creación de un útero artificial, de una biobolsa de las aguas con líquido amniótico artificial y, lo más sorprendente, el desarrollo y utilización de una placenta artificial”.

En ninguna otra parcela del saber obstétrico, prosiguió, “me asaltaron tantas dudas como las que viví y sufrí en su momento con el diagnóstico prenatal, aunque como católico y creyente siempre mantuviese una clara y firme posición a favor y en defensa de la vida del no nacido. Es un campo en que las fronteras de la ética y la moral quedan, no pocas veces, desdibujadas por la duda que genera la ignorancia y la diversidad a la hora de interpretar la verdad científica. Ya lo decía Marañón, ‘el saber, no es solo saber, sino, saber y dudar’. Así es, con frecuencia, el diagnóstico prenatal, una historia inevitable de desencuentros”.

Doce tesis doctorales, galardonadas con los Premios de Investigación 2017 de la RADE

Doce investigadores, ocho varones y cuatro mujeres, han recibido los Premios de Investigación 2017 que convoca la Real Academia de Doctores de España (RADE), en colaboración con la Asociación Española de Contabilidad y Administración de Empresas (AECA), Alcaliber y Laboratorios Ovejero. La entrega de los galardones se ha realizado durante el acto solemne de apertura del curso 2017-18 de la corporación, a la que han asistido relevantes personalidades del mundo cultural y científico.

A la edición de este año se han presentado 438 tesis doctorales, cuatro más que a la anterior en la que el número de candidatos superó en un 107,6 por ciento a la precedente. Estos premios distinguen las mejores tesis publicadas por doctores españoles que han sido defendidas entre el 1 de julio de 2016 y el 14 de julio de 2017, ambos inclusive, y que han obtenido la calificación de sobresaliente cum laude.

Dos de los premiados son doctores por la Universidad Autónoma de Madrid y otros tantos, por la Complutense; el resto han alcanzado el máximo grado académico en las universidades de Alcalá de Henares, Alicante, Barcelona, Coruña, Extremadura, Granada, UNED y Zaragoza.

Cuatro galardones se han repartido ex aequo. Alejandro García Ferrero, doctor por la UNED, con Ocio y turismo en el paisaje madrileño, y Juan Velázquez González, doctor por la Universidad de Zaragoza, con La hermenéutica de la subjetividad de la existencia como "comprensión de sí mismo". Heidegger en diálogo con la tradición filosófica, han compartido el Premio RADE de Humanidades.

El Premio RADE de Ciencias de la Vida y la Salud ha correspondido a Juan Manuel Pericás Pulido, doctor por la Universidad de Barcelona y autor de la tesis Enterococcus faecalis infective endocarditis: epidemiological, clinical and therapeutic changes at the turn of the XXIst century, y a Ivan Álvarez-Twose, doctor por la Universidad de Alcalá, por su tesis Nuevas variantes clínicas y moleculares de mastocitosis: caracterización clínico-biológica e implicaciones terapéuticas.

La doctora por la Universidad Complutense Ana María Aragón Sánchez, con su investigación Optimización de propiedades de Composites magnéticos para aplicaciones a alta y baja frecuencia mediante técnicas avanzadas de aleado mecánico de materiales amorfos, e Iris Gonzalez Taboada, doctora por la Universidad da Coruña, con su trabajo Self-compacting recycled concrete: basic mechanical properties, rheology, robustness and thixotropy, han obtenido el Premio RADE de Ciencias Experimentales Tecnológicas.

El Premio AECA-RADE de Economía y Administración de Empresas se ha otorgado al doctor por la Universidad de Granada Pedro Jesús Cuadros Solas, por Essays on underwriting and reputation, y Jorge Díaz Lanchas, doctor por la Universidad Autónoma de Madrid, por Essays on city trade flows.

Ubaldo González de Frutos, doctor por la Universidad Complutense, con la tesis La equidad entre naciones en el sistema fiscal internacional, ha recibido el Premio RADE de Ciencias Jurídicas. El Premio Juan Abelló Pascual I ha sido para María José del Pino del Barrio, autora de la tesis Targeted gene therapy in a mouse model of Fanconi anemia, defendida en la Universidad Autónoma de Madrid; y el Premio Juan Abelló Pascual II, para Alejandra Abellán Llobregat, doctora por la Universidad de Alicante, por su investigación sobre Development of electrochemical sensors based on nanostructured carbon materials for health-care applications.

Finalmente, el Premio Laboratorios Ovejero se ha concedido a Daniel Bravo Barriga, doctor por la Universidad de Extremadura, por la tesis Entomofauna de Culicidae y Phlebotominae en Extremadura, España. Detección molecular de parásitos asociados (Dirofilaria spp. y Leishmania spp.).

Objetivo, mejorar el título de doctor

En el curso que acaba de terminar la corporación ha concluido una labor que deriva de uno de sus fines estatutarios, dijo en su discurso el Presidente de la RADE, Jesús Álvarez Fernández-Represa: "Defender la dignificación del título de doctor, tanto en las exigencias para su obtención, como en su legítima ostentación y el ejercicio de sus prerrogativas", al haber entregado al Ministerio de Educación, Cultura y Deporte el informe Análisis y revalorización de los estudios de doctorado en España, con recomendaciones consideradas esenciales para mejorar la regulación del proceso académico que lleva a la concesión de este título.

Entre las propuestas del informe, el doctor Álvarez Fernández-Represa destacó: que las escuelas de doctorado sean las responsables de verificar que la tesis presentada es un trabajo original de investigación, que haya más financiación para los estudios de doctorado, o que se garantice la cualificación del director de la tesis y de los miembros del tribunal. Estas recomendaciones, añadió el Presidente, no se estiman fundamentales solamente por parte de la RADE, sino que lo son también para los expertos de las siete universidades públicas madrileñas que han intervenido en la redacción del informe. Y han parecido importantes al resto de universidades españolas, públicas y privadas, a las que se envió el texto, una vez terminado, para someterlo a su consideración.

“Confiamos ahora en que nuestras aportaciones sean bien acogidas y que sirvan para contribuir a que el título de doctor alcance el rigor, valor y consideración, tanto académica como social, que merece en beneficio de nuestro país y del avance del conocimiento científico en todas sus ramas”, agregó.

Empleo y agua, nuevos temas de estudio

A la culminación del informe sobre el doctorado ha seguido el comienzo de nuevos trabajos. Uno de ellos sobre el empleo, del que ya ha sido informado el Ministerio de Empleo y Seguridad Social, con el que se harán sugerencias que ayuden a resolver un problema que preocupa a todos los sectores de la sociedad española y a sus responsables políticos.

Y otro estudio iniciado por la RADE se refiere a un tema de enorme gravedad: la cuestión del agua, elemento tan esencial para la vida como problemático en la actualidad por motivos tan variados como el cambio climático, el crecimiento constante de la demanda, no solo de agua sino también de alimentos que requieren grandes cantidades de este líquido para su producción; la contaminación de ríos y lagos, la depuración de aguas residuales y tantos otros aspectos relacionados.

Como indicó el Presidente de la institución, la ministra de Agricultura y Pesca, Alimentación y Medio Ambiente clausuró, el mes pasado, una de las sesiones que el grupo de trabajo encargado de este informe ha programado entre sus actividades para preparar sus recomendaciones, que tanto la Academia como la administración pública esperan con gran interés, ya que el Gobierno tiene en marcha un proyecto para alcanzar un pacto nacional sobre el agua, que resulta de la mayor trascendencia en un país sometido a reiteradas etapas de sequía y amenazado de desertización, como es España.

Impacto social de la RADE

“Con estas actividades y todas las demás que constituyen cada año el programa de trabajo de la RADE, nuestra Academia está produciendo un impacto social relevante, como pedía en su día el Rey Felipe VI a todas las reales academias, a las que exhortaba a impulsar, con aire renovador, el conocimiento y la cultura indispensables en el momento actual”, agregó Álvarez Fernández-Represa. A continuación, resaltó la calidad científica de las tesis presentadas a los premios, felicitó a sus autores, a los que invitó a mantenerse vinculados a la Academia; agradeció la difícil labor de selección llevada a cabo por los diferentes jurados y expresó su gratitud a las entidades patrocinadoras, Asociación Española de Contabilidad y Administración de Empresas (AECA), Alcaliber y Laboratorios Ovejero y a la Fundación Liberade, creada por la RADE, sin cuya intervención no sería posible convocar estos premios cuya finalidad es impulsar el avance de la ciencia entre los jóvenes científicos españoles.

Además de las actividades académicas citadas por el Presidente, el Secretario General, doctor Emilio de Diego García, leyó la Memoria Académica del curso pasado, según la cual en este periodo de tiempo han ingresado en la RADE seis nuevos Académicos Numerarios y nueve Correspondientes, y se han celebrado cerca de veinte sesiones ordinarias sobre diversos temas científicos y culturales, entre mesas redondas, conferencias y homenajes.

El futuro del diagnóstico prenatal

“Nunca han estado la medicina y la biología molecular tan cerca, como lo están en este momento, de poder generar, por no decir crear, vida, aunque nos cueste creerlo y admitirlo. Se están llevando a diario, en reproducción asistida, procedimientos sobre los que deberíamos reflexionar sobre su trascendencia como son los relativos a la fertilización de madres sexagenarias, la fecundación post morten, la maternidad subrogada y, sobre todo, los que se derivan de la creación y conservación de gametos y preembriones humanos”, señaló el Presidente de la Sección de Medicina, de la RADE, Antonio González, al pronunciar el discurso de apertura de curso titulado Implicaciones de la genética y genómica en el diagnóstico y tratamiento de las anomalías fetales.

En un detallado recorrido por la historia de los avances científicos fundamentales en el ámbito del diagnóstico prenatal, el doctor González desembocó en la ingeniería genética, desarrollada en la década de los años setenta del siglo pasado a raíz de los descubrimientos del bioquímico americano Paul Berg, que desveló no pocos secretos relacionados con la producción de proteínas por el ADN, los mecanismos implicados en su reparación y hasta el orden de sus miles de nucleótidos.

Ahora, continuó, está en alza un nuevo avance tecnológico para terapia génica, la CRISPR-Cas9, “sorprendente y revolucionaria herramienta molecular que permite modificar y corregir el genoma de cualquier célula del organismo, incluidas las del ser humano”, con la que se puede borrar, cortar, añadir o modificar una secuencia o mutación anómala del ADN de determinados genes inductores de enfermedades hereditarias y sustituirla por otra mutación deliberada y correctora.

Modificar o no el genoma humano, ese es el dilema

En el descubrimiento de esta técnica tuvo especial protagonismo el profesor y microbiólogo ilicitano Francis Martínez Mojica, que fue el primero que observó y describió estas variaciones del ADN estudiando el genoma de la bacteria haloferax mediterranei, presente en las salinas de Santa Pola en Alicante; además de autor del acrónimo CRISPR y quien intuyó que podía tratarse de un mecanismo creado por las bacterias, mediante ingeniería genética, para vacunarse y defenderse de las infecciones víricas, indicó el conferenciante. La trasformación de este hallazgo en una asombrosa herramienta molecular de múltiples aplicaciones terapéuticas se produjo en 2012, por Emmanuelle Charpentier, bioquímica, microbióloga y directora del Instituto Max Planck, en Berlín, y Jennifer Doudna, bioquímica y experta en farmacología molecular de la Universidad de Berkeley, galardonadas ambas con el Premio Princesa de Asturias de Investigación Científica y Técnica de 2015, por haber desarrollado “una técnica genómica que permite reescribir el genoma y corregir genes defectuosos con una precisión sin precedentes”.

No se conocen bien todavía las limitaciones y efectos secundarios de este método, ni si será aceptado como ético por la comunidad científica, advirtió González. Para Francis Mojica, dijo, “el límite tolerable de la investigación vendría señalado por la prohibición de modificar el genoma en los embriones humanos. Pero no todos los investigadores opinan lo mismo”, añadió González. El pasado 2 de agosto, la revista Nature publicó un artículo firmado por Ma. H. y sus colaboradores, entre ellos el bioquímico español Juan Carlos Izpisúa, en el que anunciaban que, con la técnica CRISPR, habían podido corregir (borrar) con éxito, por primera vez y en embriones humanos, la copia defectuosa del gen MYBPC3, una mutación especifica que causa una enfermedad rara y grave, la miocardiopatía hipertrófica, que posiblemente desaparecerá para siempre de confirmarse estos hallazgos.

Tras recordar que la Constitución Europea prohíbe la clonación de seres humanos con la exclusiva finalidad de modificar a la carta alguna característica genética, y la ley española sobre técnicas de reproducción asistida regula cómo conservar, custodiar y eliminar un preembrión, González afirmó que “la controversia radica en que, independientemente del fin para el que fueron creados (investigación, terapia génica o problemas de esterilidad), cabe reconocer de hecho la existencia de dos tipos o clases de preembriones, válidos unos y no tan válidos, por decirlo de alguna manera, otros, que además de ser relegados o sustituidos por los primeros, podrían quedar incursos en un destino final mucho mas incierto”. “Un farragoso y problemático escenario bioético en el que conviene diferenciar bien lo que la ciencia permite y es capaz de aportar en favor de la vida, y lo que la ética admite para proteger la vida humana”.

Avanzar en investigación y defender la dignidad humana

“Creemos que no se puede renunciar y detener la investigación, mientras esta sea respetuosa y escrupulosa con la dignidad de la persona humana y con la legislación vigente. Las técnicas y los procedimientos no son ni buenos ni malos en sí mismos, es el uso que se hace de ellos el que los hace aceptables o no”, destacó el orador, en cuya opinión, “deberíamos poder evitar, a toda costa, la confrontación entre el poder incitador y provocador que abandera la investigación y el talento creativo, base del progreso científico, y el afán, no menos firme y necesario, de defender a ultranza la dignidad y el respeto hacia la persona humana”.

“Cuando se despejen las dudas e incertidumbres que ahora tenemos en torno a la ingeniería genómica, se irán descifrando las mutaciones que dan origen a muchas mas enfermedades, otras desaparecerán, mejorará la salud de muchos niños y se evitarán no pocos abortos”, manifestó González. “Me satisface poder oír ya persistentes rumores sobre otros grandes avances tecnológicos que se acercan, como la creación de un útero artificial, de una biobolsa de las aguas con líquido amniótico artificial y, lo más sorprendente, el desarrollo y utilización de una placenta artificial”.

En ninguna otra parcela del saber obstétrico, prosiguió, “me asaltaron tantas dudas como las que viví y sufrí en su momento con el diagnóstico prenatal, aunque como católico y creyente siempre mantuviese una clara y firme posición a favor y en defensa de la vida del no nacido. Es un campo en que las fronteras de la ética y la moral quedan, no pocas veces, desdibujadas por la duda que genera la ignorancia y la diversidad a la hora de interpretar la verdad científica. Ya lo decía Marañón, ‘el saber, no es solo saber, sino, saber y dudar’. Así es, con frecuencia, el diagnóstico prenatal, una historia inevitable de desencuentros”.

Solemne Sesión de Apertura del Curso Académico 2017-2018

Apertura del acto por el Dr. D. Jesús Álvarez Fernández-Represa, Presidente de la Real Academia de Doctores de España y Académico de Número de la Sección de Medicina

Lectura de la Memoria del curso académico 2016-17 por el Dr. D. Emilio de Diego García, Secretario General de la Corporación y Académico de Número de la Sección de Humanidades

Discurso de apertura por el Dr. D. Antonio González González, Académico de Número de la Sección de Medicina, sobre el tema: Implicaciones de la genética y genómica en el diagnóstico y tratamiento de las anomalías fetales

Entrega de los Premios a la Investigación convocados por la Real Academia de Doctores de España correspondientes a la convocatoria 2017

Palabras del Presidente de la Real Academia de Doctores de España, Dr. D. Jesús Álvarez Fernández-Represa

La doctrina de la ONU prohíbe quebrantar la integridad territorial de los Estados soberanos

La doctrina de la ONU prohíbe toda acción encaminada a quebrantar o menoscabar total o parcialmente la integridad territorial de los Estados soberanos e independientes, aseguró José Antonio Tomás Ortiz de la Torre, Académico de Número y Presidente de la Sección de Derecho, de la Real Academia de Doctores de España (RADE), en la sesión “La pretendida secesión de Cataluña en el Derecho Internacional”. Según el ponente, para que Cataluña pudiera independizarse, los partidos que tengan ese objetivo deben cumplir los requisitos del artículo 168 de la Constitución: tener dos tercios en las dos cámaras, elaborar un proyecto de texto, convocar elecciones y repetir los dos tercios en ambas cámaras, confirmar el antedicho texto y someterlo a referéndum del pueblo español.

En el acto, que presidió el Secretario General, Emilio de Diego García, y moderó Ángel Sánchez de la Torre, el ponente repasó la crisis catalana y las resoluciones del Tribunal Constitucional sobre las actuaciones para declarar la independencia catalana. Del presunto referéndum, manifestó que, “no solamente no cumplió las condiciones mínimas establecidas por la Comisión de Venecia, organismo del Consejo de Europa, sino que ni siquiera recibió el beneplácito de los observadores internacionales, nombrados por las autoridades catalanas, las cuales fijaron a su antojo el número de votantes y el resultado favorable al sí, en más de un 90 por ciento de los más de dos millones doscientos mil sufragios, según ellas, depositados”.

Para el conferenciante, no hubo declaración de independencia con efectos jurídicos, puesto que ni se votó ni figuró en el diario oficial de Cataluña, ni en ningún otro, y el documento firmado en otra sala constituye solo un deseo o aspiración de los firmantes sin más consecuencias.

Sobre el artículo 155, señaló que no puede servir de base para decir que España es una país de extrema derecha, que va a dar un golpe de estado en Cataluña, o va a intervenir o a invadir ese territorio. Es una traducción literal del artículo 37 de la Constitución de la República Federal Alemana, y un artículo similar aparece en la Constitución italiana. El 155, por tanto, está dentro del marco del derecho constitucional comparado.

Una queja grotesca

Consideró el ponente que la competencia de la Audiencia Nacional y la prisión provisional dictada por la juez de instrucción contra los presidentes de la ANC y de Òmnium Cultural es correcta, por la finalidad última del delito: desgajar una parte del territorio español, que es lo que se pretende al querer montar una república independiente. El independentismo catalán, continuó, viene de muy lejos. En 1921, Ortega y Gasset, en su España invertebrada, escribía: “Pocas cosas hay tan significativas en el estado actual como oír a vascos y catalanes sostener que son ellos pueblos oprimidos por el resto de España. La situación privilegiada que gozan es tan evidente, que a primera vista esa queja habrá de parecer grotesca”. “En 2017, son unas palabras que me parecen perfectamente válidas”, añadió, porque Cataluña goza del nivel de autogobierno más alto de la democracia, superior a Irlanda y a Escocia; es la autonomía con más competencias transferidas, 189, y la que más recibe del Estado.

Según las normas internas españolas, la soberanía nacional reside en el pueblo español, del que emanan los poderes del Estado, la nación española es patria común e indivisible de todos los españoles y corresponde al Rey convocar los referéndums sobre las decisiones políticas de especial trascendencia, señaló Tomás Ortiz de la Torre, quien recordó que la Constitución obtuvo el 91,81 por ciento de los votos emitidos por casi 18 millones de votantes, que incluyen los casi tres millones de Cataluña, de los que el 90,5 por ciento se inclinó por el sí.

Salvo las constituciones españolas de 1837 y de 1845, todas las demás expresan, con mayor o menor claridad, la unidad e indisolubilidad de España. Y en constituciones extranjeras vigentes, las que permiten la secesión son rarísimas, las de la República Democrática Federal de Etiopía, de San Cristóbal y Nieves, de Liechtenstein, que se compone de municipios individuales, y la de Uzbekistán. Es poco conocido, precisó, que la de Francia, de 1958, establece la posibilidad de que las colectividades de ultramar, restos coloniales que no quisieron separarse de la metrópoli, pueden pedir una consulta para autodeterminarse. La Constitución, afirmó el orador, no se puede modificar de otra forma distinta a cómo establece su mismo texto, “y quien lo pretenda se sitúa fuera de la legalidad e incurrirá en el supuesto del Código Penal que corresponda”.

Analizó el conferenciante el término “nacionalidades” incluido en la Constitución. Pocos vocablos son tan ambiguos a causa de la complejidad de las realidades que comprende, como entendía el internacionalista francés Charles Rousseau. La mayoría de la doctrina se inclina por utilizarlo en su sentido originario del latín natus, que designa un grupo nacido en un determinado territorio que participa en común de ciertos elementos de hecho, como la lengua, la cultura, la religión, las tradiciones, etc. La nacionalidad sería, dijo, “el producto de un estado de conciencia común a todos los miembros que componen un grupo determinado que se considera distinto de otros similares”. En el siglo XIX la doctrina de las nacionalidades la formuló en Italia Pasquale Stanislao Mancini, que entendía como nación “una sociedad natural de hombres a quienes la unidad de territorio, de origen, de costumbres y de idioma lleva a una comunidad de vida y de conciencia social”.

Cataluña jamás fue una nación

A este respecto, dijo que para el historiador catalán Gabriel Tortella Casares, Cataluña jamás fue una nación, pues pertenece a España desde 1479, hace 538 años, y con anterioridad perteneció al Reino de Aragón durante nueve siglos. Una idea que está presente en numerosos historiadores y escritores, como Claudio Sánchez Albornoz, Américo Castro, Ortega y Gasset, Laín Entralgo, Manuel Azaña, etc. No obstante, hoy Cataluña se declara nación en el vigente estatuto de autonomía de 2006, término que el Tribunal Constitucional ha considerado perfectamente constitucional, aunque sin efectos jurídicos.

Cuando, ya en el XX, comenzó a funcionar la Sociedad de Naciones, el principio del derecho a la libre determinación se tradujo en el derecho de una población a no ser intercambiada o cedida contra su voluntad y, a su vez, en el derecho de secesión. La Sociedad de Naciones creó mandatos de diversos tipos para que los territorios coloniales accediesen, más rápida o más lentamente, a la independencia. Y la Asamblea General de la ONU, en 1946, elaboró una lista, que amplió en 1960, con los territorios coloniales con derecho a la autodeterminación.

Hizo referencia al que fue Fiscal General del Estado, el socialista Eligio Hernández, quien escribía hacía pocos días, sobre la pretendida idea de que España es una nación de naciones, recordando que Juan Negrín, Presidente del Gobierno en 1938, declaró que no estaba haciendo la guerra a Franco “para que nos retoñe en Barcelona un separatismo estúpido y pueblerino. Estoy haciendo la guerra por España y para España, por su grandeza y para su grandeza. No hay más que una nación: España. No se puede consentir esta sórdida y persistente campaña separatista y tiene que ser cortada de raíz si se quiere que yo siga dirigiendo la política del Gobierno, que es una política nacional. En punto a la integridad de España soy irreductible y la defenderé de los desafueros”. En consecuencia, concluyó que la indivisibilidad de la nación española no es un pensamiento de derechas o de centro, y es común también a una parte de la izquierda.

Sobre la tan repetida idea de que los pueblos tienen derecho a la libre autodeterminación según los Pactos de Nueva York, de 1966, sobre derechos civiles y políticos y sobre derechos económicos, sociales y culturales, subrayó que hay que leer los textos completos. La resolución 1.514(XV), que habla de la independencia de los países y pueblos coloniales, añade que es contrario a la Carta de la ONU “todo intento encaminado a quebrantar total o parcialmente la unidad nacional o integridad territorial de un país es incompatible con los propósitos y principios de la Carta de las Naciones Unidas”.

Cumplir el artículo 168

Cuando en 1970 la ONU cumplió 25 años, se aprobó la declaración sobre los principios de derecho internacional referentes a las relaciones de amistad y cooperación entre los estados. Esta resolución, la 2.625(XXV), tras recoger lo relativo al derecho de autodeterminación, dice que “ninguna de las disposiciones de los párrafos precedentes se entenderá en el sentido de que autoriza o fomenta acción alguna encaminada a quebrantar o menoscabar total o parcialmente la integridad territorial de los estados soberanos e independientes que se conduzcan de conformidad con el principio de la igualdad de derechos y de la libre determinación de los pueblos, antes descritos, y estén, por tanto, dotados de un gobierno que represente a la totalidad del pueblo perteneciente al territorio sin distinción por motivos de raza, credo o color”.

Cataluña puede independizarse, aseguró el conferenciante, siempre que se cumpla el artículo 168 de la Constitución. El grupo político que quiera conseguir ese objetivo tendrá que tener dos tercios en las dos cámaras y elaborar un proyecto. Tras celebrar nuevas elecciones, tendrá que volver a alcanzar los dos tercios en Congreso y Senado. Y, una vez confirmado el texto donde diga que España es divisible, habrá que someterlo a referéndum del pueblo español.

La doctrina de la ONU prohíbe quebrantar la integridad territorial de los Estados soberanos

· Para que Cataluña se independizara habría que cumplir el artículo 168 de la Constitución, aseguró José Antonio Tomás Ortiz de la Torre, en una sesión de la Real Academia de Doctores de España
· El presunto referéndum “no solamente no cumplió las condiciones mínimas establecidas por la Comisión de Venecia, organismo del Consejo de Europa, sino que ni siquiera recibió el beneplácito de los observadores internacionales”
· Cataluña jamás fue una nación para el historiador catalán Gabriel Tortella Casares, pertenece a España desde 1479, hace 538 años, y con anterioridad perteneció al Reino de Aragón durante nueve siglos
· La indivisibilidad de la nación española no es un pensamiento de derechas o de centro, y es común también a una parte de la izquierda

- Pie de foto.- El doctor José Antonio Tomás Ortiz de la Torre, durante su exposición.

MADRID (06-11-17).- La doctrina de la ONU prohíbe toda acción encaminada a quebrantar o menoscabar total o parcialmente la integridad territorial de los estados soberanos e independientes, aseguró José Antonio Tomás Ortiz de la Torre, Académico de Número y Presidente de la Sección de Derecho, de la Real Academia de Doctores de España (RADE), en la sesión “La pretendida secesión de Cataluña en el Derecho Internacional”. Según el ponente, para que Cataluña pudiera independizarse los partidos que tengan ese objetivo deben cumplir los requisitos del artículo 168 de la Constitución: tener dos tercios en las dos cámaras, elaborar un proyecto de texto, convocar elecciones y repetir los dos tercios en ambas cámaras, confirmar el antedicho texto y someterlo a referéndum del pueblo español.

Al repasar la crisis catalana y las resoluciones del Tribunal Constitucional sobre las actuaciones para declarar la independencia catalana, el ponente manifestó que el presunto referéndum “no solamente no cumplió las condiciones mínimas establecidas por la Comisión de Venecia, organismo del Consejo de Europa, sino que ni siquiera recibió el beneplácito de los observadores internacionales, nombrados por las autoridades catalanas, las cuales fijaron a su antojo el número de votantes y el resultado favorable al sí, en más de un 90 por ciento de los más de dos millones doscientos mil sufragios, según ellas, depositados”.

Sobre el artículo 155, señaló que no puede servir de base para decir que España es una país de extrema derecha, que va a dar un golpe de estado en Cataluña, o va a intervenir o a invadir ese territorio. Es una traducción literal del artículo 37 de la Constitución de la República Federal Alemana, y hay un artículo similar aparece en la Constitución italiana. El 155, por tanto, está dentro del marco del derecho constitucional comparado.

Una queja grotesca

El independentismo catalán, continuó, viene de muy lejos. En 1921, Ortega y Gasset, en su España invertebrada, escribía: “Pocas cosas hay tan significativas en el estado actual como oír a vascos y catalanes sostener que son ellos pueblos oprimidos por el resto de España. La situación privilegiada que gozan es tan evidente, que a primera vista esa queja habrá de parecer grotesca”. “En 2017, son unas palabras que me parecen perfectamente válidas”, añadió, porque Cataluña goza del nivel de autogobierno más alto de la democracia, superior a Irlanda y a Escocia; es la autonomía con más competencias transferidas, 189, y la que más recibe del Estado.

Salvo las constituciones españolas de 1837 y de 1845, todas las demás expresan, con mayor o menor claridad, la unidad e indisolubilidad de España. Y en constituciones extranjeras vigentes, las que permiten la secesión son rarísimas, las de la República Democrática Federal de Etiopía, de San Cristóbal y Nieves, de Liechtenstein, que se compone de municipios individuales, y la de Uzbekistán. Es poco conocido, precisó, que la de Francia, de 1958, establece la posibilidad de que las colectividades de ultramar, restos coloniales que no quisieron separarse de la metrópoli, pueden pedir una consulta para autodeterminarse. La Constitución Española, afirmó el orador, no se puede modificar de otra forma distinta a cómo establece su mismo texto, “y quien lo pretenda se sitúa fuera de la legalidad e incurrirá en el supuesto del Código Penal que corresponda”.

Analizó el conferenciante el término “nacionalidades” incluido en la Constitución. Pocos vocablos son tan ambiguos a causa de la complejidad de las realidades que comprende, como entendía el internacionalista francés Charles Rousseau. La mayoría de la doctrina se inclina por utilizarlo en su sentido originario del latín natus, que designa un grupo nacido en un determinado territorio que participa en común de ciertos elementos de hecho, como la lengua, la cultura, la religión, las tradiciones, etc. La nacionalidad sería, dijo, “el producto de un estado de conciencia común a todos los miembros que componen un grupo determinado que se considera distinto de otros similares”. En el siglo XIX la doctrina de las nacionalidades la formuló en Italia Pasquale Stanislao Mancini, que entendía como nación “una sociedad natural de hombres a quienes la unidad de territorio, de origen, de costumbres y de idioma lleva a una comunidad de vida y de conciencia social”.

Cataluña jamás fue una nación

A este respecto, dijo que para el historiador catalán Gabriel Tortella Casares, Cataluña jamás fue una nación, pues pertenece a España desde 1479, hace 538 años, y con anterioridad perteneció al Reino de Aragón durante nueve siglos. Una idea que está presente en numerosos historiadores y escritores, como Claudio Sánchez Albornoz, Américo Castro, Ortega y Gasset, Laín Entralgo, Manuel Azaña, etc. No obstante, hoy Cataluña se declara nación en el vigente estatuto de autonomía de 2006, término que el Tribunal Constitucional ha considerado perfectamente constitucional, aunque sin efectos jurídicos.

Hizo referencia al que fue Fiscal General del Estado, el socialista Eligio Hernández, quien escribía hacía pocos días, sobre la pretendida idea de que España es una nación de naciones, recordando que Juan Negrín, Presidente del Gobierno en 1938, declaró que no estaba haciendo la guerra a Franco “para que nos retoñe en Barcelona un separatismo estúpido y pueblerino. Estoy haciendo la guerra por España y para España, por su grandeza y para su grandeza. No hay más que una nación: España. No se puede consentir esta sórdida y persistente campaña separatista y tiene que ser cortada de raíz si se quiere que yo siga dirigiendo la política del Gobierno, que es una política nacional. En punto a la integridad de España soy irreductible y la defenderé de los desafueros”. En consecuencia, concluyó que la indivisibilidad de la nación española no es un pensamiento de derechas o de centro, y es común también a una parte de la izquierda.

Cuando, ya en el XX, comenzó a funcionar la Sociedad de Naciones, el principio del derecho a la libre determinación se tradujo en el derecho de una población a no ser intercambiada o cedida contra su voluntad y, a su vez, en el derecho de secesión; y se formularon mandatos de diverso tipo para que los territorios coloniales accediesen, más rápida o más lentamente, a la independencia. En 1946, la Asamblea General de la ONU, elaboró una lista, que amplió en 1960, con los territorios coloniales con derecho a la autodeterminación.

Sobre la tan repetida idea de que los pueblos tienen derecho a la libre autodeterminación según los Pactos de Nueva York, de 1966, sobre derechos civiles y políticos y sobre derechos económicos, sociales y culturales, subrayó que hay que leer los textos completos. La resolución 1.514(XV), que habla de la independencia de los países y pueblos coloniales, añade que es contrario a la Carta de la ONU “todo intento encaminado a quebrantar total o parcialmente la unidad nacional o integridad territorial de un país es incompatible con los propósitos y principios de la Carta de las Naciones Unidas”.

Cumplir el artículo 168

Cuando en 1970 la ONU cumplió 25 años, se aprobó la declaración sobre los principios de derecho internacional referentes a las relaciones de amistad y cooperación entre los estados. Esta resolución, la 2.625(XXV), tras recoger lo relativo al derecho de autodeterminación, dice que “ninguna de las disposiciones de los párrafos precedentes se entenderá en el sentido de que autoriza o fomenta acción alguna encaminada a quebrantar o menoscabar total o parcialmente la integridad territorial de los estados soberanos e independientes que se conduzcan de conformidad con el principio de la igualdad de derechos y de la libre determinación de los pueblos, antes descritos, y estén, por tanto, dotados de un gobierno que represente a la totalidad del pueblo perteneciente al territorio sin distinción por motivos de raza, credo o color”.

Cataluña puede independizarse, aseguró el conferenciante, siempre que se cumpla el artículo 168 de la Constitución. El grupo político que quiera conseguir ese objetivo tendrá que tener dos tercios en las dos cámaras y elaborar un proyecto. Tras celebrar nuevas elecciones, tendrá que volver a alcanzar los dos tercios en Congreso y Senado. Y, una vez confirmado el texto donde diga que España es divisible, habrá que someterlo a referéndum del pueblo español.

El académico Manuel del Río Martínez recibió el homenaje póstumo de la RADE

 Manuel del Río Martínez, Académico de Número de la Sección de Arquitectura y Bellas Artes, en la que ingresó en 2001, ha recibido el homenaje póstumo de la Real Academia de Doctores de España (RADE), en cuya Junta de Gobierno desempeñó el cargo de Tesorero, en el transcurso de una sesión in memoríam presidida por el titular de la corporación, Jesús Álvarez Fernández Represa.

Abrió el turno de intervenciones Ignacio Ferrero Ruiz de la Prada, doctor arquitecto, quien se definió como “amigo y compañero del alma de Manolo”, de quien no podría alabar su obra porque, tan identificado con ella como está, resultaría una alabanza a sí mismo. “Hemos vivido en la misma casa, hemos tenido la segunda vivienda en la misma urbanización, sus hijos y los míos han ido al mismo colegio, y sus problemas y sus alegrías han sido las mías”, afirmó.

Rememoró Ferrero que se conocieron en 1958, en la Facultad de Ciencias Exactas, cuando para ingresar en la Escuela Técnica Superior de Arquitectura era necesario tener aprobados los dos primeros años de Matemáticas. Fueron años durísimos, apuntó, porque aprobar suponía un gran esfuerzo. Junto con Juan José Arostegui, estudiaban los tres “en casa de Manolo por la noche, y algunas veces veíamos amanecer”.

Manuel del Río trabajó como becario en el estudio de Domingo Tabuyo, desde el tercer año de carrera. Allí conoció a Gaspar Robles, amigo del segundo arquitecto del Patrimonio Nacional, Ramón Andrada Pfeiffer, continuó Ferrero. Con Tabuyo siguió trabajando después de terminar sus estudios, en 1965, hasta que Andrada, para quien se había hecho imprescindible, le contrató en el Patrimonio como ayudante.

Después de sus respectivas bodas, en 1967, Ferrero y Del Río fundaron un estudio para dedicarse en profundidad a la arquitectura y aumentar los ingresos con que mantener a sus familias. Se presentaron juntos a una convocatoria del Ayuntamiento de Madrid que buscaba arquitectos. Los dos fueron admitidos, pero como el nuevo trabajo era incompatible con el ejercicio libre de la profesión, decidieron que Del Río siguiera en el Patrimonio y Ferrero entrara en el Ayuntamiento. El estudio empezó a funcionar, con obras para Eduardo Reyzabal, que les encargó un cine, viviendas y un aparcamiento, y otros edificios, entre ellos el Winsord, de trágico final.

Los proyectos crecían, lo que les permitió comprarse sendos pisos en el mismo edificio y cambiar la sede del estudio, al que se incorporó el sobrino de Ferrero, Juan Hernández Ferrero, que más tarde ingresó en el Patrimonio Nacional como adjunto de Del Río. De aquel tiempo destacó el proyecto de la manzana de la iglesia del Buen Suceso, en la calle Princesa, y el Hospital del Aire, que firmaron tres arquitectos del Patrimonio, Ramón Andrada, Manuel del Río y Juan Hernández, además del propio Ferrero. Fue la primera vez que se empleó en Madrid el aluminio como cerramiento de fachada, en 1974.

Jefe, mentor, maestro, amigo

Su jefe, su mentor, su maestro y su amigo. Con estos términos se refirió a Manuel del Río, con quien trabajó durante casi cuarenta años en el Patrimonio, Juan Hernández al iniciar su parlamento. En verano de 1973 todo cambió de forma radical, apuntó. Franco nombró a Carrero Blanco Presidente del Gobierno, quien designó a Utrera Molina Ministro de la Vivienda, y este, a su vez, a Javier Carvajal, como su Director General de Arquitectura. Pero Carvajal acaba de ser elegido Decano del Colegio Oficial de Arquitectos de Madrid, y era incompatible para el cargo. Fue entonces cuando el también desaparecido académico de la RADE Antonio Lamela sugirió para el puesto a Ramón Andrada, y su vacante en la jefatura de arquitectura del Patrimonio la ocupó Del Río, en 1973, como Jefe Accidental del Servicio de Obras del Patrimonio.

A pesar de tan “exiguo ropaje burocrático del cargo”, Manuel del Río se enfrentó a una responsabilidad que marcaría su vida, recalcó Hernández. Se le encargó el anteproyecto de ampliación del Palacio de la Zarzuela para alojar al Príncipe Juan Carlos, en el que Hernández asumió el desarrollo de planos de detalles constructivos y esquemas de instalación. “Era increíble la capacidad de Manolo de seleccionar personas y formar equipos en poco espacio de tiempo y distribuir responsabilidades en gente joven y sin experiencia”, agregó.

Aquel proyecto cerró la primera etapa de Del Río en el Patrimonio, según Hernández, y abrió la segunda. De sus ocho primeros años en el organismo estatal queda su huella en un montón de proyectos del Patronato de Viviendas del Patrimonio, “a menos de tres mil pesetas el metro cuadrado”, y otras obras destacables, como el cerramiento, verja, pilastras y garitas de la plaza de Armas del Palacio de Aranjuez; el Tejar de Somontes, el funicular del Valle de los Caídos, la restauración del palacete de la Quinta del Pardo, la primera operación de limpieza de las fachadas del Palacio Real de Madrid, con la recuperación de elementos originales y reposición de esculturas y florones, y el comienzo de la restauración de la Almudaina, de Palma de Mallorca.

La segunda etapa de Del Río en el Patrimonio, de 1973 a 1986, fue “la más feliz para él, aunque con sinsabores, disgustos, alegrías y satisfacciones”, gracias al entorno más favorable para su trabajo que permitió el nuevo Presidente de la institución, Nicolás de Cotoner y Cotoner, marqués de Mondejar. En 1974 empezó la ampliación del Palacio de la Zarzuela, dijo Hernández, a quien Del Río confió el pabellón de servicios íntegramente. “Menos mal que luego le dio un buen revolcón y lo mejoró de arriba abajo”, añadió con agradecimiento.

De urgencia en urgencia

A la muerte de Franco, prosiguió Hernández, todas las obras estaban listas y casi dispuestas para ser ocupadas, y todo se había ordenado con un esquema de funcionamiento y de crecimiento previstos anticipadamente. A finales de 1977, Del Río se tuvo que ocupar del Palacio de la Moncloa, que iba a ser residencia de Adolfo Suárez. La urgencia, indicó el ponente, fue increíble; pero en pocas semanas el Presidente pudo trasladarse.

Al galope se pasó también del palacio de La Moncloa al de Aranjuez, que debía reemplazar a aquel como residencia de jefes de Estado en visita oficial. El palacio, que el propio Del Río había restaurado en 1974, requería pocos retoques. Se trabajó a un ritmo de 16 a 18 horas diarias para que, en la primavera de 1977, Aranjuez alojara al Presidente portugués Ramallo Eanes. Desde esta fecha a 1986, Del Río se empleo en todo tipo de proyectos en plenitud de facultades profesionales y físicas, manifestó Hernández, como la manzana del Buen Suceso, la transformación del palacio de El Pardo como hotel del Estado, y la segunda ampliación de la Zarzuela.

La reforma de El Pardo le exigió una dedicación especial. “Fue donde más le vi trabajar y disfrutar”, agregó. Coincidió con el 23-F y con la remodelación de la residencia particular de Suárez, y a esas fechas corresponden también la restauración del palacio de Marivent y del palacio de la Almudaina. Todas estas obras se salpimentaban con otras de carácter medio o menor, además de la conservación y restauración de centenares de inmuebles del Patrimonio. Entre 1984 y 1986 se restauró el convento de las Descalzas Reales, una de las últimas obras de la época del marqués de Mondejar.

Pero en la primavera de 1986 las cosas cambiaron. Mondejar y Andrada fueron sustituidos de la presidencia y la gerencia del Patrimonio, y comenzó una nueva etapa para Manuel del Río, “llena de altibajos y tensiones, y también de trabajos de calidad”. Cuando llegó la cúpula socialista ya había terminado la ampliación de La Zarzuela, y los cambios en la Casa Real, entre 1990 y 1991, le afectaron. En 1989 se le había removido de su puesto para encargarle de proyectos especiales, fuera del día a día de la Zarzuela. Entre ellos citó Hernández la rehabilitación del Cuarto Real en los Alcázares de Sevilla, que le reportó “un considerable éxito personal, pero con escasas gratitudes”. En 1997 el nuevo Presidente del Patrimonio, el duque de San Carlos, le encargó de la preparación de la boda de la infanta Cristina, en Barcelona. Todo salió perfecto, y le valió la vuelta a la jefatura de arquitectura. Se preveía un lustro feliz, según Hernández, con dos potentes encargos, la casa del Príncipe Felipe y el Museo de Colecciones Reales. Pero no fue así.

En mayo de 2001 llegó Manuel del Río a la RADE, “una de los mayores satisfacciones de su vida”, apostilló Hernández, de la mano de Miguel Fisac y de Fernando Chueca Goitia, que contestó su discurso, en un acto que presidió Don Felipe. Pero los últimos cuatro años de esta tercera etapa no fueron los mejores por lo que tuvo que aguantar, agregó. La relación con la presidencia empezó a deteriorarse. El museo, que se adjudicó en concurso internacional, sin que se pudiera aplicar su proyecto porque se le había incluido en el jurado, acabó anulado judicialmente. Le quedaba solo la casa del Príncipe, a la que se dedicó, sin recibir agradecimiento ni comprensión. Con las obras acabadas, decidió jubilarse anticipadamente, con lo que terminaba a petición propia una labor colosal de un formidable arquitecto tesonero y luchador.

Desencantado del Patrimonio

Su padre estaba desencantado con los gestores del Patrimonio, cuando, en los 90, estaba dedicado al proyecto de restauración de Las Huelgas, en Burgos, relató Manuel del Río Fernández-Villarjubín, que empezó a trabajar en el estudio al terminar la carrera, en 1992. En las visitas a aquellas obras, Del Río hijo aprendió a escuchar y a perder el miedo a preguntar a todos los oficios que intervienen en los trabajos.

Finalizada la tarea en Las Huelgas, su padre ya tenía decidido dejar el Patrimonio y dedicarse exclusivamente a su estudio; pero en 1995 el Rey Juan Carlos le llamó a casa para pedirle que hiciera el pabellón del Príncipe. El encargo le ligaba a un Patrimonio que ya no le motivaba, pero le resultó un buen aliciente. En aquel mismo año el estudio se trasladó a Príncipe de Vergara, y estuvo implicado en tres grandes promociones: Torrecajal, un conjunto de viviendas, el edificio de oficinas Gorbea3 y la sede de Amper Servicios, en Tres Cantos. Emilio Aragón les encargó la construcción de unos estudios de grabación, para los que aprovecharon una antigua fábrica que vendían los Reyzabal, y además demolieron el antiguo cine y discoteca Consulado, para construir un edificio de apartamentos. A finales de los 90 el estudio recuperó plenamente la actividad con pequeñas edificaciones y varios inmuebles de diverso uso.

Cuando su padre dimitió, los Reyes, como agradecimiento, le concedieron la Encomienda de Número de la Real Orden de Carlos III, y Doña Sofía le propuso formar parte del patronato de su Fundación contra el Alzheimer. Aceptó y se volcó en la investigación para diseñar residencias para estos enfermos. La Reina le encomendó preparar el congreso mundial sobre el Alzheimer en la parte dedicada la arquitectura especializada, y recomendó que el proyecto de construir una residencia para enfermos de Alzheimer en Paracuellos se encargara a del Río, que fue la última que inauguró.

Junto con ACS, el estudio ganó el concurso para rehabilitar la sede del Congreso de los Diputados, pero no se le dio publicidad porque, en los días que se desarrollaban las obras, Podemos movilizaba el asedio a la cámara. Todos le animaron a escribir un libro sobre su obra, que hizo a ratos, hasta que fue presentado en mayo de 2016. Quince días después, entró en tratamiento intensivo y murió el 28 de julio, agregó Del Río hijo, que expresó su gratitud a la RADE y, en especial, a Rosa Garcerán. “Ingresar en esta Academia fue uno de los momentos más felices de su vida”, concluyó, no sin antes mencionar que, en 50 años de profesión, su padre había proyectado más de 500 proyectos de viviendas, palacios, oficinas, hoteles, urbanizaciones y hasta cementerios.

Una obra magnífica

Rosa María Garcerán Piqueras, Presidenta de la Sección de Arquitectura y Bellas Artes, de la RADE, fue Secretaria General en la Junta de Gobierno de la academia en la que Manuel del Río era Tesorero, como ella misma manifestó en su intervención. Su obra fue magnífica, dijo, antes de citar las condecoraciones y distinciones que había recibido: Gran Cruz al Mérito Civil, Encomienda de Isabel la Católica, Encomienda de Número de la Orden del Infante, de Portugal; Encomienda de la Orden de la Estrella Polar, de Suecia; Encomienda de Número de la Real Orden de Carlos III, Premio Internacional Melina Mercuri (UNESCO) por la restauración del Jardín del Príncipe de Aranjuez y Premio Especial del Consejo de Europa a la restauración del convento de las Descalzas Reales.

Era un tertuliano ocurrente, de memoria y claridad de juicio prodigiosas, siempre le resultó fácil tener su apoyo en la Junta de Gobierno, aseguró Garcerán, y nunca cambio su cariñosa actitud con las personas en toda su vida académica. Recordó su último acto público, con motivo de la presentación de su libro: Caminando y construyendo entre reyes, que aconsejó leer para conocer a fondo el patrimonio de la Corona, tan desconocido por los españoles. Finalizó su exposición Garcerán asegurando que Manuel del Río se consideraba un privilegiado, a lo que añadió: “Privilegiados nosotros, Manuel, por haber contado contigo en esta academia”.

El Presidente de la RADE, Álvarez Fernández-Represa, al clausurar la sesión, recomendó vivamente la lectura del libro de Manuel del Río, en cuya presentación intervino. Calificó a su autor de “entrañable y trabajador” y destacó su muy activa participación en la Academia, “a la que ha honrado enormemente”.

La doctora Yolanda Moratilla, distinguida por el Instituto de la Ingeniería de España

El Instituto de la Ingeniería de España (IIE) ha entregado a la doctora Yolanda Moratilla Soria, Académica de Número de la Sección de Ingeniería, de la Real Academia de Doctores de España (RADE), desde octubre de 2015, su distinción Magna Dedicatio como muestra de reconocimiento a su dedicación desinteresada y notoria a la entidad y al logro de sus objetivos a lo largo del tiempo.

La entrega del galardón se ha realizado en el transcurso de un acto celebrado en la sede del IIE, al que asistió el Presidente de la RADE, Jesús Álvarez Fernández-Represa, y otros miembros de la corporación. La doctora Moratilla recibió la condecoración de manos de Román Escudero Gallego, Presidente–Decano de la Asociación-Colegio de Ingenieros del ICAI, a la que pertenece también la galardonada.

Al glosar su currículo, Escudero destacó que Moratilla ha sido la primera mujer que ha ingresado en la Sección de Ingeniería de la RADE; así como la tarea desarrollada como Presidenta del Comité de Energía y Recursos Naturales del IIE, desde 2006, y la creación del Seminario Permanente en Tecnologías Energéticas, entre dicho instituto y la Universidad Pontificia Comillas ICAI-ICADE. Alabó también Escudero su fructífera labor investigadora, patente en numerosos artículos, en la coordinación de una veintena de libros científicos y en la participación en numerosos proyectos de I+D+i de financiación pública y privada.

En nombre de Moratilla y de los distinguidos con otros galardones del IIE, pronunció unas palabras de agradecimiento Salvador de Miguel Martínez, ingeniero de Montes, reconocido también con la Magna Dedicatio.

Marcelino Oreja: La Transición exterior se fue forjando antes incluso de la Constitución

 

Si no existe consenso sobre la duración de la Transición política española, más difícil resulta señalar cuándo comenzó la exterior, de la que nunca se habla, como puso de relieve el doctor Jaime Lamo de Espinosa, Académico de Número de la sección de Ingeniería, de la Real Academia de Doctores de España (RADE), promotor y moderador de la sesión “La Transición exterior”, que ha estado presidida por el titular de la corporación, Jesús Álvarez Fernández-Represa.

No se habla, señaló Lamo de Espinosa, de lo que supusieron aquellos años de 1976 a 1982 en el ámbito exterior, una época en la que desde “fuera se nos veía con recelo”. Distinguir entre las dos transiciones era un recurso lícito para analizarlas, porque ambas están imbricadas, agregó, al explicar por qué le parecía oportuno abordar esta cuestión. Para aportar luz sobre el tema, el organizador convocó a algunos de sus protagonistas reales: Marcelino Oreja Aguirre, Académico de Número de la Real Academia de Ciencias Morales y Políticas y exministro de Asuntos Exteriores; Antonio Oyarzabal Marchesi, que fue Jefe del Gabinete del Presidente del Gobierno entre 1974 y 1976, Director de la Oficina de Información Diplomática de 1979 a 1980 y embajador de España en Estados Unidos, entre otros países. No pudo asistir, por enfermedad, el también embajador Raimundo Bassols Jacas.

Para Marcelino Oreja, es difícil poner fechas a la Transición exterior. No obstante, recordó que, en diciembre de 1962, el entonces ministro de Asuntos Exteriores, Fernando María Castiella, con el que trabajó diez años y al que considera su maestro, le encargó preparar una carta para solicitar la apertura de negociaciones con la Comunidad Económica Europea (CEE). La misiva se envió en febrero, y no tuvo respuesta. Cuatro años más tarde, Castiella volvió a mandar otra carta con la misma petición, a la que se contestó con la apertura de un proceso de negociación sobre aspectos económicos y comerciales, pero no políticos. Como subrayó Oreja, “hay algo que se va forjando a lo largo del tiempo, antes incluso de la Constitución”. Por eso, para el ponente, la Transición exterior “no tiene una fecha determinada, sino más flexible; pero, en definitiva consiguió insertarnos en las instituciones europeas”.

Tras las elecciones de 1977, Adolfo Suárez comunicó a todos los partidos que su Gobierno iba a solicitar la negociación para ingresar en la CEE, y recibió el apoyo unánime, por lo que el 28 de julio de ese año, Oreja estaba en Bruselas solicitando las pertinentes negociaciones.

Pequeña trampa a Suárez

Aquel día, admitió Oreja, hizo “una pequeña trampa A Suárez”, que no sentía gran emoción por la OTAN. A través del embajador español en Bélgica, Nuño Aguirre de Cárcer, mantuvo una cena secreta con el Secretario General de la OTAN. Cuando se lo contó a Suárez, el Presidente no le dijo nada, “pero creo que no le gustó”. “Estar en un Gobierno no significa estar permanentemente diciendo sí al Presidente”, observó Oreja, para reconocer que hizo una cosa mal en la cuestión de la OTAN. Un periodista, al que calificó de peligrosísimo, brillante e inteligente, Pablo Sebastián, le hizo una larga entrevista en la que el ministro se mostraba partidario del ingreso en la alianza. Al ver el texto, el Director del periódico, Juan Luis Cebrián, tuvo la delicadeza de enviárselo antes de publicarlo, y Oreja le pidió unas horas para ponerlo en conocimiento de Suárez. Pero la entrevista se publicó sin que la hubiera leído. “En política, cuando se está convencido de algo, hay que hacerlo. Debía haber insistido en que la leyera, y creo que debo arrepentirme de aquello”, admitió.

Como el ingreso en la CEE iba a tardar, era necesario dar pasos sobre derechos humanos para entrar en el Consejo de Europa, continuó Oreja. No tener constitución era un problema, por lo que se hizo una declaración parlamentaria en la que todos los partidos se comprometían a elaborar un texto constitucional. Finalmente, el mismo día que Oreja entregaba los instrumentos de adhesión al consejo, el 24 de noviembre de 1977, firmaba el Convenio Europeo para la Salvaguardia de los Derechos del Hombre y de las Libertades Fundamentales.

Factor importante en la Transición exterior fue la restauración de relaciones diplomáticas con otros países. Oreja destacó el caso de México, que las mantenía con el Gobierno republicano en el exilio. En febrero de 1977 recibió una llamada del Canciller mexicano, Santiago Roel, al que envió, en secreto, una persona de su confianza para iniciar el proceso. En marzo, tras haber informado al Rey y a Suárez, Oreja se reunió con Roel en París y se llegó al acuerdo. Ninguna de las partes quería firmar en la embajada de la otra, y Oreja propuso hacerlo en el espléndido Salón Napoleón del Hotel Jorge V, donde se alojaba Roel. Sin embargo, el Canciller detectó un inconveniente: México y España no podían suscribir un acuerdo allí, para España por Napoleón I, y para México por Napoleón III. Oreja sugirió entonces tapar el nombre con una tela, y así se hizo.

Recordó Oreja que hubo que franquear un plan de Argelia para promover la independencia de Canarias cuando España y Marruecos se aproximaron en la resolución del conflicto del Sahara. Para afrontar el asunto, el responsable de política exterior del Congreso y Oreja se repartieron las visitas a cuarenta países africanos y, finalmente, se superó un trance que para él fue preocupante “y del que ya nadie se acuerda”, apostilló.

El papel esencial de Juan Carlos I

El papel del Rey Juan Carlos I fue fundamental, esencial y básico en todos los temas exteriores, afirmó Oreja. Tuvo un gran interés en pasar el primer 12 de octubre en Iberoamérica y después visitó más de una decena de países. Cuando solo faltaban dos, Argentina y Chile, se decidió ir al primero. En el aeropuerto, el Presidente Videla abrió los brazos pero el Rey evitó la foto del abrazo con el dictador alargando su mano. Don Juan Carlos tenía preparado un discurso sobre derechos humanos y libertades para la cena oficial, que los argentinos intentaron evitar sustituyéndola por una recepción. Avisado de la situación, Oreja advirtió a su colega argentino que, con cena o sin ella, habría discurso, porque estaba ya en la prensa, “que no era verdad”. Y el discurso fue espléndido.

El Rey conocía muy bien los temas de política exterior y tomaba muchas iniciativas en ese campo, como la de viajar a China para reunirse con Deng Xiaoping, o resolver las pésimas relaciones con Pablo VI. En un consejo de ministros informal, ante la pregunta del monarca de cómo se podía resolver aquella situación, Oreja, que conocía bien el asunto porque había publicado un artículo al respecto bajo la firma del grupo Tácito, explicó que el Jefe del Estado debía renunciar al derecho de presentación de obispos y la Santa Sede, al privilegio del fuero. El acuerdo se logró a principios de 1978, y alguien tuvo “una idea excelente”: hacerlo público después de que se aprobase la Constitución. “Ha habido muchas críticas injustas porque los Acuerdos eran contrarios a la Constitución; pero no es verdad”, añadió Oreja, antes de manifestar que cuando el PSOE está en la oposición critica la existencia de los Acuerdos con la Santa Sede, “pero, cuando está en el poder, se olvida”.

Aseguró Oreja que el asalto a la Embajada de España en Guatemala y la ruptura de relaciones con el país es “el acontecimiento más doloroso que he vivido”. En cuanto a otro tema complicado, el establecimiento de relaciones con Israel, dijo que le parecían necesarias, pero Suárez no las tenía claras por motivos fundamentalmente económicos. No obstante, con autorización del Presidente, Oreja se entrevistó en secreto, en su casa de campo, con un alto dirigente israelí, aprovechando su visita a España, al que propuso iniciar conversaciones para establecer relaciones.

El tema de Gibraltar, reconoció Oreja, llevaba años sin avanzar, por lo que, en 1979, al coincidir con su colega británico en Argelia, se lo planteó. En 1998, con Josep Piqué en Asuntos Exteriores, se negociaba un acuerdo con el Reino Unido para alcanzar la cosoberanía, con la condición de celebrar un referéndum cincuenta años después, que no se podía aceptar, puntualizó. La negociación, muy criticada por los conservadores en la Cámara de los Comunes, se paró al cambiar el responsable del Foreing Office.

Estados Unidos, el único aliado

En una situación de total aislamiento exterior, los acuerdos de 1953 con los Estados Unidos fueron esenciales para la supervivencia del régimen. Con ellos llegó la ayuda alimentaria, leche y queso, créditos, material militar e inversiones para construir las cuatro bases militares norteamericanas, el oleoducto y otras instalaciones, afirmó Antonio Oyarzabal en su intervención.

Que el Presidente Eisenhower pasara unas horas en Madrid, en 1959, se pudo conseguir gracias a diversos apoyos, como el del embajador norteamericano en Madrid, que meses más tarde se convertiría en suegro de Oyarzabal. La posterior llegada al poder de un Presidente demócrata enfrió las relaciones, hasta que Castiella consiguió renovar los acuerdos, que conllevaban compensaciones científicas y educativas, como las becas Fullbright, que permitieron formarse en Estados Unidos a jóvenes investigadores españoles.

En 1969, el escándalo Matesa supuso un punto de inflexión para el tardofranquismo, y el régimen empezó a debilitarse, lo que invitaba a que desde el exterior se evitara comprometerse más con Franco. “Se notaba que no podíamos llegar a Occidente a través de Estados Unidos, y que era incómodo tener solo un aliado, que mantenía cierta distancia y una barrera clara, dijo Oyarzabal. La conversación del Presidente Ford con Franco, a raíz de su visita en 1975, en la que Oyarzabal fue intérprete, “la impresión que causamos fue penosa. Podemos hablar de un franquismo en estado preagónico. La situación del general Franco era lamentable. Apenas seguía la conversación, le costaba mucho, e incluso oírle era difícil. Conservaba todos sus poderes omnímodos, pero estaba físicamente acabado”.

Arias Navarro, un desastre

Durante el Gobierno de Carlos Arias Navarro, el Rey pronunció otro gran discurso en Estados Unidos, acompañado por Castiella, que el Presidente siguió desde su despacho, con evidentes muestras de desaprobación. Don Juan Carlos llevaba la batuta e iba mucho más allá de lo que había pensado Arias Navarro. Meses más tarde, el Rey declaraba a un periodista norteamericano que su Presidente “era un desastre completo”.

Con el Gobierno Suárez, Marcelino Oreja llegó al ministerio y empezó a apagar incendios, continuó Oyarzabal. Lo primero que puso sobre la mesa es que no había otra alternativa que ingresar en la OTAN. El principal problema era que Suárez prefería el grupo de los no alineados. Hubo que esperar a la llegada de Calvo Sotelo, más integrado en el mundo internacional, para que se pidiera la entrada y se ingresara en la OTAN. El PSOE lanzó las masas a la calle con el eslogan “OTAN, de entrada no”, y después convocó el referéndum que había prometido, a pesar de lo cual González hizo un cierto travestismo antes de la votación para apoyar la permanencia en la alianza, y ganó el sí.

Parecía terminar ahí la Transición exterior, según Oyarzabal. Pero no estábamos en la estructura militar. Avanzábamos en las relaciones con Estados Unidos, aunque varias alas de combate norteamericanas salieron de Torrejón. Entonces el ataque a las Torres Gemelas provocó la segunda invasión de Irak, a la que se sumó el Gobierno español, a pesar de que no contaba con claro apoyo internacional. “Si la entrada es discutible, lo fue más y más desgraciada la salida, con un portazo en las narices a los Estados Unidos”, apuntó Oyarzabal, por lo que pasamos a una fase bastante sombreada. Posteriormente, mejoraron nuestras relaciones y nos integramos plenamente en la estructura militar. “Sometidos a presiones para aumentar nuestra participación en la OTAN, avanzamos paso a paso en la posibilidad de integrar otro mundo de seguridad y defensa en el marco de la UE. Estamos en una situación muy confortable, tenemos prestigio, buenas relaciones con Estados Unidos y un papel digno e importante en la OTAN, concluyó Oyarzabal.

La Transición exterior se fue forjando antes de que hubiera Constitución, según Marcelino Oreja

· La Real Academia de Doctores de España analizó la Transición exterior, “algo de lo que no se habla”, afirmó el académico y exministro Jaime Lamo de Espinosa
· Antes de 1978 se ingresó en el Consejo de Europa y se abrieron conversaciones con la CEE, la OTAN, la Santa Sede y México
· Oreja se reunió en secreto con el secretario general de la OTAN, lo que no gustó a Suárez, que no era partidario de la alianza
· España tuvo que franquear un plan de Argelia para la independencia de Canarias por el conflicto del Sahara
· El franquismo no podía llegar a Occidente a través de su único aliado, Estados Unidos, que mantenía una cierta distancia del régimen

- Pie de foto.- Marcelino Oreja, Jesús Álvarez Fernández-Represa, presidente de la RADE, y Jaime Lamo de Espinosa.

MADRID (27-11-17).- La Transición exterior, el tiempo que se tardó en salir del aislamiento internacional e incorporarse a las instituciones europeas y al mundo, no tiene una fecha determinada, sino flexible, porque “hay algo que se va forjando a lo largo del tiempo, antes incluso de la Constitución”, afirmó Marcelino Oreja, exministro de Asuntos Exteriores y miembro de la Real Academia de Ciencias Morales y Política, en la sesión “La Transición exterior”, celebrada en la Real Academia de Doctores de España (RADE).

Si no existe consenso sobre la duración de la Transición interna, más difícil resulta señalar cuándo comenzó la exterior, de la que nunca se habla, manifestó Jaime Lamo de Espinosa, miembro de la sección de Ingeniería, de la RADE, y exministro, que promovió y moderó la sesión. No se habla, añadió, de lo que supusieron aquellos años de 1976 a 1982 en el ámbito exterior, una época en la que desde “fuera se nos veía con recelo”. Pero, distinguir entre las dos transiciones era un recurso lícito para analizarlas, porque ambas están imbricadas, agregó.

Recordó Marcelino Oreja que, en diciembre de 1962, el entonces ministro de Asuntos Exteriores, Fernando María Castiella, le encargó preparar una carta para solicitar la apertura de negociaciones con la Comunidad Económica Europea (CEE). La misiva se envió en febrero, y no tuvo respuesta. Cuatro años más tarde, Castiella volvió a mandar otra carta con la misma petición. Esta vez hubo respuesta para abrir un proceso de negociación sobre aspectos económicos y comerciales, pero no políticos. Como subrayó Oreja, “hay algo que se va forjando a lo largo del tiempo, antes incluso de la Constitución”. Por eso, para el ponente, la Transición exterior “no tiene una fecha determinada, sino más flexible; pero, en definitiva consiguió insertarnos en las instituciones europeas”.

Tras las elecciones de 1977, Adolfo Suárez comunicó a todos los partidos que su Gobierno iba a solicitar la negociación para ingresar en la CEE, y recibió el apoyo unánime, por lo que el 28 de julio de ese año Oreja estaba en Bruselas solicitando las pertinentes negociaciones.

Pequeña trampa a Suárez

Aquel día, admitió Oreja, hizo “una pequeña trampa A Suárez”, que no sentía gran emoción por la OTAN. A través del embajador español en Bélgica, Nuño Aguirre de Cárcer, mantuvo una cena secreta con el secretario general de la OTAN. Cuando se lo contó a Suárez, el Presidente no le dijo nada, “pero creo que no le gustó”, subrayó. “Estar en un Gobierno no significa estar permanentemente diciendo sí al Presidente”, observó Oreja, antes de reconocer que hizo una cosa mal en la cuestión de la OTAN. Un periodista, al que calificó de peligrosísimo, brillante e inteligente, Pablo Sebastián, le hizo una larga entrevista en la que el ministro se mostraba partidario del ingreso en la alianza. Al ver el texto, el Director del periódico, Juan Luis Cebrián, tuvo la delicadeza de enviárselo antes de publicarlo y Oreja le pidió unas horas para ponerlo en conocimiento de Suárez. Pero la entrevista se publicó sin que la hubiera leído. “En política, cuando se está convencido de algo, hay que hacerlo. Pero debía haber insistido en que la leyera, y creo que debo arrepentirme de aquello”, aseveró.

Como el ingreso en la CEE iba a tardar, parecía necesario dar pasos sobre derechos humanos para entrar en el Consejo de Europa, continuó Oreja. No tener constitución era un problema, por lo que se hizo una declaración parlamentaria en la que todos los partidos se comprometían a elaborar un texto constitucional. Finalmente, el mismo día que Oreja entregaba los instrumentos de adhesión al consejo, el 24 de noviembre de 1977, firmaba el Convenio Europeo para la Salvaguardia de los Derechos del Hombre y de las Libertades Fundamentales.

Importante en la Transición exterior fue la restauración de relaciones diplomáticas con otros países, entre los que Oreja destacó el caso de México, que las mantenía con el Gobierno republicano en el exilio. En febrero de 1977 recibió una llamada del canciller mexicano, Santiago Roel, al que envió, en secreto, una persona de su confianza para iniciar el proceso. En marzo, tras haber informado al Rey y a Suárez, Oreja se reunió con Roel en París y se llegó al acuerdo. Ninguna de las partes quería firmar en la embajada de la otra, y Oreja propuso hacerlo en el espléndido Salón Napoleón del Hotel Jorge V, en el que se alojaba Roel. Sin embargo, el canciller detectó un inconveniente: México y España no podían suscribir un acuerdo en ese salón, para España por Napoleón I y para México por Napoleón III. Oreja sugirió entonces tapar el nombre con una tela, y así se hizo.

Rememoró Oreja cómo se franqueó un plan de Argelia para promover la independencia de Canarias cuando España y Marruecos se aproximaron en la resolución del conflicto del Sáhara. El responsable de política exterior del Congreso y Oreja se repartieron las visitas a cuarenta países africanos y, finalmente, se superó un trance que para él fue preocupante “y del que ya nadie se acuerda”, apostilló.

El papel esencial de Juan Carlos I

El papel del Rey Juan Carlos I fue fundamental, esencial y básico en todos los temas exteriores, afirmó Oreja. El Rey tuvo un gran interés en pasar el primer 12 de octubre en Iberoamérica y después visitó más de una decena de países. Cuando solo faltaban dos, Argentina y Chile, se decidió ir al primero. En el aeropuerto, el Presidente Videla abrió los brazos para abrazar al Rey, pero el monarca evitó la foto de un abrazo con el dictador alargando su mano. Don Juan Carlos tenía preparado un discurso sobre derechos humanos y libertades para la cena oficial, que los argentinos intentaron evitar sustituyéndola por una recepción. Avisado de la situación, Oreja advirtió a su colega argentino que, con cena o sin ella, habría discurso, porque estaba ya en la prensa, “lo que no era verdad”. Y el discurso fue espléndido.

El Rey conocía muy bien los temas de política exterior y tomaba muchas iniciativas en ese campo, como la de viajar a China para reunirse con Deng Xiaoping, o resolver las pésimas relaciones con Pablo VI. En un consejo de ministros informal, ante la pregunta del monarca de cómo se podía resolver aquella situación, Oreja, que conocía bien el asunto porque había publicado un artículo al respecto bajo la firma del grupo Tácito, explicó que el Jefe del Estado debía renunciar al derecho de presentación de obispos y la Santa Sede, al privilegio del fuero. El acuerdo se logró a principios de 1978, y alguien tuvo “una idea excelente”: hacerlo público después de que se aprobase la Constitución. “Ha habido muchas críticas injustas porque los Acuerdos eran contrarios a la Constitución; pero no es verdad”, añadió Oreja, antes de señalar que cuando el PSOE está en la oposición critica la existencia de los Acuerdos con el Vaticano, “pero, cuando está en el poder, se olvida”.

Para Oreja, el asalto a la Embajada de España en Guatemala y la ruptura de relaciones con el país es “el acontecimiento más doloroso que he vivido”. En cuanto a otro tema complicado, el establecimiento de relaciones con Israel, dijo que le parecían necesarias, pero Suárez no las tenía claras por motivos fundamentalmente económicos. No obstante, con autorización del Presidente, Oreja se entrevistó en secreto, en su casa de campo, con un alto dirigente israelí, aprovechando su visita a España, al que propuso iniciar conversaciones para establecer relaciones.

El tema de Gibraltar, reconoció Oreja, llevaba años sin avanzar, por lo que, en 1979, al coincidir con su colega británico en Argelia, se lo planteó. En 1998, con Josep Piqué en Asuntos Exteriores, se negociaba un acuerdo con el Reino Unido para alcanzar la cosoberanía, cuya condición inaceptable era celebrar un referéndum cincuenta años después. La negociación, muy criticada por los conservadores en la Cámara de los Comunes, se paró al cambiar el responsable del Foreing Office.

Estados Unidos, el único aliado

En una situación de total aislamiento exterior, los acuerdos de 1953 con los Estados Unidos fueron esenciales para la supervivencia del régimen. Con ellos llegó la ayuda alimentaria, leche y queso, créditos, material militar e inversiones para construir cuatro bases norteamericanas, el oleoducto y otras instalaciones, afirmó Antonio Oyarzabal Marchesi, que fue jefe del Gabinete del presidente del Gobierno entre 1974 y 1976, director de la Oficina de Información Diplomática de 1979 a 1980 y embajador de España en Estados Unidos, entre otros países.

Que el Presidente Eisenhower pasara unas horas en Madrid, en 1959, se consiguió con diversos apoyos, como el del embajador norteamericano en Madrid, que meses más tarde se convertiría en suegro de Oyarzabal. La llegada al poder de un presidente demócrata enfrió las relaciones, hasta que Castiella logró renovar los acuerdos, que incluían compensaciones científicas y educativas, como las becas Fullbright, que permitieron formarse en Estados Unidos a jóvenes investigadores españoles.

En 1969, el escándalo Matesa fue un punto de inflexión para el tardofranquismo, y el régimen empezó a debilitarse, lo que invitaba a que desde el exterior se evitara comprometerse más con Franco. “Se notaba que no podíamos llegar a Occidente a través de Estados Unidos, y que era incómodo tener solo un aliado, que mantenía cierta distancia”, dijo Oyarzabal. En la conversación del presidente Ford con Franco, durante su visita en 1975 en la que Oyarzabal fue intérprete, “la impresión que causamos fue penosa. Podemos hablar de un franquismo en estado preagónico. La situación del general Franco era lamentable. Apenas seguía la conversación, le costaba mucho, e incluso oírle era difícil. Conservaba todos sus poderes omnímodos, pero estaba físicamente acabado”.

Arias Navarro, un desastre

Durante el Gobierno de Carlos Arias Navarro, el Rey pronunció otro gran discurso en Estados Unidos, acompañado por Castiella, que el Presidente siguió desde su despacho, con evidentes muestras de desaprobación. Don Juan Carlos llevaba la batuta e iba mucho más allá de lo que había pensado Arias Navarro. Meses más tarde, el Rey declaraba a un periodista norteamericano que su Presidente “era un desastre completo”.

Con el Gobierno Suárez, Marcelino Oreja llegó al ministerio y empezó a apagar incendios, continuó Oyarzabal. Lo primero que puso sobre la mesa es que no había otra alternativa que ingresar en la OTAN. El principal problema era que Suárez prefería el grupo de los no alineados. Hubo que esperar a la llegada de Calvo Sotelo, más integrado en el mundo internacional, para que se pidiera la entrada y se ingresara en la OTAN. El PSOE lanzó las masas a la calle con el eslogan “OTAN, de entrada no”, y después convocó el referéndum que había prometido, a pesar de lo cual González hizo un cierto travestismo antes de la votación para apoyar la permanencia en la alianza, y ganó el sí.

Parecía terminar ahí la Transición exterior, según Oyarzabal. Pero no estábamos en la estructura militar. Avanzábamos en las relaciones con Estados Unidos, aunque varias alas de combate norteamericanas salieron de Torrejón. Entonces el ataque a las Torres Gemelas provocó la segunda invasión de Irak, a la que se sumó el Gobierno español, a pesar de que no contaba con claro apoyo internacional. “Si la entrada es discutible, lo fue más y más desgraciada la salida, con un portazo en las narices a los Estados Unidos”, apuntó Oyarzabal, por lo que pasamos a una fase bastante sombreada. Posteriormente, mejoraron nuestras relaciones y nos integramos plenamente en la estructura militar. 

Félix María Arocena: El Rito Hispano es la cuna del tiempo de Adviento para el occidente litúrgico

El tiempo de Adviento surge durante la primera mitad del siglo VI por la transformación de un nuevo ciclo litúrgico de tres semanas, que actualmente son seis, de preparación a la fiesta in Apparitione Domini, que fue una creación del Rito Hispano, más tarde conocido como Hispano-Mozárabe, afirmó Félix María Arocena Solano, en su discurso de ingreso como Académico Correspondiente en la Sección de Teología, de la Real Academia de Doctores de España (RADE), en un acto presidido por el titular de la corporación, Jesús Álvarez Fernández-Represa.

En su discurso de ingreso, La constitución del Rito Hispano y la aportación de sus textos a la teología de la liturgia, Arocena señaló que, en la constitución y desarrollo del Rito Hispano se verificaron, aproximadamente, los mismos fenómenos verificables en la formación de otras liturgias occidentales, entre las que se encuentran la romana, la ambrosiana, la franca o la celta.

En las primerísimas experiencias litúrgicas de las iglesias de España, la estructura de la misa era casi idéntica a la celebrada en el rito de las Galias, que parece importada del África proconsular. “Los dípticos que ha conservado el Missale Mixtum (1755), junto con algunas de las fórmulas de enlace, que dan cohesión a la anáfora (ofrenda, sacrificio), se conjetura que son vestigios de una plegaria eucarística del siglo III. A la par que permanecían fijos el canto del Sanctus y el relato de la institución, variaban otras siete piezas de la anáfora, que eran expresamente compuestas para las celebraciones que discurrían a lo largo del año litúrgico y de cuya constancia dan fe los primeros calendarios cristianos”, añadió.

Es verosímil, prosiguió el recipiendario, que a partir del siglo IV “se utilizaran varias anáforas para cada una de las celebraciones eucarísticas ", que serían adaptaciones latinas de formularios que provenían de la escuela alejandrina. La invasión y ulterior estabilización de los visigodos en la península favoreció la solidaridad entre las iglesias hispanas y galicanas, que se prolonga hasta la desaparición del rito galicano. En esta primera fase de gestación del Rito Hispano, las iglesias ibéricas, como las galas, acogieron con entusiasmo los primeros libelli de la misa romana. De esta forma, ambas iglesias conservaron el relato paulino de la eucaristía y las antiguas fórmulas de enlace de la varias partes de la anáfora. Cristaliza así una singularidad de la liturgia hispana: la variabilidad de la anáfora.

Fase de compilación litúrgica

Cuando más intensas eran las relaciones entre las iglesias galas y tarraconenses, sometidas al poder militar ostrogodo, se plasma el mayor acontecimiento litúrgico del periodo: la creación de un nuevo tiempo litúrgico, un ciclo de tres semanas, actualmente son seis, de preparación a la fiesta in Apparitione Domini, que durante la primera mitad del siglo VI se transformó en tiempo de Adviento, cuya cuna para el occidente litúrgico fue el Rito Hispano.

El segundo periodo del nuevo rito se caracteriza por la facilidad con que se crean y multiplican los textos litúrgicos, indicó Arocena. En la liturgia visigótica esta segunda fase abarca siglo y medio, que se abre en la tarraconense con la comisión de colectas sálmicas por Justo de Urgel, sigue con Leandro y se cierra con san Ildefonso, que muere en el 667.

La tercera y última fase se caracteriza por el tránsito de los libelos a los libros litúrgicos organizados. Codificar, precisa Arocena, significa seleccionar los textos oracionales recogidos en los libelos, sin excluir su revisión, corrección y rellenado de lagunas; pero también, suprimir elementos que reflejaban bien las circunstancias ambientales del escrito original. El gran compilador del Rito Hispano fue Julián de Toledo.

Esencia de las liturgias occidentales

La influencia de las colectas de salmos sobre la vasta eucología (conjunto de oraciones contenidas en un formulario litúrgico) hispana fue tan decisiva, que algunos autores adaptaron esas oraciones a las solemnidades, los tiempos fuertes del año litúrgico e, incluso, a las fiestas de algunos santos, modificando o expandiendo el texto original. Los temas prevalentes son el misterio de Cristo, el misterio de la Iglesia, la fe, la penitencia o la visión beatífica de Dios, entre otros.

“Si se quiere describir el ‘genio’ del Rito Hispano frente al resto de liturgias occidentales, el estudio eucológico de la liturgia de las Horas resulta insoslayable, ya que fue precisamente en el Oficio divino donde se aprecia con mayor claridad la cooperación entre las escuelas litúrgicas de las tres grandes sedes metropolitanas: Tarragona, Sevilla y Toledo”, añadió Arocena.

En definitiva, concluye, “la esencia íntima de la liturgia encuentra en la eucología hispana una de sus mejores claves hermenéuticas. Ningún texto patrístico o magisterial sabrá enunciar la naturaleza del misterio del culto cristiano con tanta precisión y densidad de pensamiento como la misma lex orandi. Y esto ¿por qué? La explicación última consiste en que la unidad viviente de la obra de la salvación quiere hacerse nuestra en la Iglesia precisamente a través de su sacramentalidad”.

Interdisciplinar en saberes y aficiones

Licenciado en Físicas y doctor en Derecho Canónico y en Sagrada Teología, Arocena, presbítero incardinado en la Prelatura del Opus Dei, se caracteriza por la interdisciplinariedad de sus saberes y aficiones, además de capacidad de gobierno y de relaciones humanas, condiciones que facilitan la coordinación entre los miembros de una institución, como destacó la doctora Blanca Castilla de Cortázar, Académica de Número de la Sección de Teología, que presentó al recipiendario.

Arocena, continuó su presentadora, se especializó en el Pontificio Instituto Litúrgico San Anselmo, de Roma. Actualmente, es profesor agregado de Teología Sacramentaria y Liturgia en la Universidad de Navarra, y profesor visitante en la Universidad Eclesiástica San Dámaso. Es también Académico Ordinario de la Pontificia Academia Latinitatis, de Roma, y Académico Correspondiente de la Pontificia Academia de Teología, de Roma; además de Subdirector de la revista Scripta Theologica, de la Facultad de Teología de la Universidad de Navarra.

Entre sus libros, destacó Castilla de Cortázar Liturgia y vida, en el que profundiza en una convicción de san José María Escrivá, cuando afirmaba que cualquier cristiano, en su vida cotidiana, puede y está llamado a ser sacerdote en su propia existencia; es decir, que él mismo hace un ofrecimiento a Dios de sus trabajos, sus dolores y sus alegrías. Una tesis de una enorme riqueza para la vida litúrgica y personal, subrayó.

Hay “frenos” para incrementar el periodo vital y evitar los deterioros del envejecimiento, según Ángel Agis

No hay respuesta positiva a la pregunta de si se puede dar marcha atrás a los relojes biológicos. Sin embargo, parece que hay “frenos” para incrementar el periodo vital y evitar los deterioros que acompañan al envejecimiento y, en un futuro próximo, la reprogramación celular podría ofrecer una respuesta afirmativa, aseguró el doctor Ángel Agis Torres al tomar posesión de su plaza de Académico Correspondiente de la Sección de Farmacia, de la Real Academia de Doctores de España, en un acto presidido por el titular de la corporación, Jesús Álvarez Fernández-Represa.

En su discurso, Los relojes de la vida ¿tienen marcha atrás?, el nuevo Académico Correspondiente, recorrió los mecanismos de los relojes biológicos para descubrir sus relaciones con el periodo vital y el envejecimiento, y evaluar las posibilidades de modificarlos, a la vista de los hechos con más consenso en la comunidad científica.

Apuntó Agis que, en la historia oscura de la humanidad, es recurrente la fe en el poder curativo de la sangre joven. Es inquietante saber que, en 1864, Bert publicó un artículo acerca del rejuvenecimiento en roedores mediante aplicación de la parabiosis heterocrónica, que consiste en poner en comunicación los sistemas circulatorios de un animal joven y el de otro anciano, para que este último recupere sus funcionalidades juveniles. Tales experimentos tuvieron auge entre 1960 y 1970, y siguen haciéndose en la actualidad, aunque en menor medida.

Entre cuantiosos detalles científicos aportados para describir factores, causas y procesos, Agis llamó la atención sobre la sorprendente aproximación entre la duración que el Génesis especifica para el periodo vital del hombre: ciento veinte años, y los ciento veinticinco estimados por Dong y sus colaboradores, publicada en Nature, en 2016.

Patologías por desajuste del reloj biológico

La vida discurre entre periodos o intervalos, en los que se desarrollan las actividades del organismo, manifestó Agis. El periodo más evidente es el diario, circadiano, en el que ocurren procesos tan conocidos como el ciclo vigilia-sueño. Hay también periodos superiores al día, infradianos, que pueden ser mensuales, como el ciclo ovárico, y estacionales, los ciclos reproductivos; así como periodos inferiores al día, ultradianos, la secreción de hormonas, que duran minutos u horas, y otros mucho más rápidos: base de tiempos o metrónomos fisiológicos, que son neuronales.

Cuando el reloj biológico se desajusta se producen alteraciones y patologías. Los ritmos se alteran porque se modifican las entradas sincronizadoras debido a la pérdida del contraste entre día y noche, consecuencia de una vida con poca luz durante el día, noches excesivamente iluminadas, o desplazamiento de la señal de sincronía al viajar por diferentes husos horarios. La ruptura de la sincronía puede tener su causa en la falta de coherencia entre actividades y el ciclo luz-oscuridad, por ejemplo, en las horas de las comidas, el ejercicio, la hora de acostarse o las relaciones sociales, que ocasionan alteraciones fisiológicas: fatiga, somnolencia, obesidad, daño oxidativo, o patologías: cáncer, síndrome metabólico, trastornos del sueño, enfermedades cardiovasculares, alteraciones del humor, depresión, déficit cognitivo, envejecimiento o neurodegeneración.

El envejecimiento, señaló Agis, se podría definir como “un proceso biológico multifactorial que se manifiesta por un declive de las funciones fisiológicas a lo largo del tiempo y que, finalmente, lleva a la muerte”. Las marcas del envejecimiento se observan sobre los genes, por el acortamiento de los telómeros, las estructuras dinámicas situadas en los extremos de los cromosomas que controlan el número de divisiones de la célula. Los telómeros se acortan con cada mitosis (proceso de reproducción de nuevas células) y, cuando llegan a un límite, la célula no puede dividirse más y entra en estado de senescencia replicativa, para posteriormente morir.

Las edades cronológica y el biológica discurren en paralelo, continuó Agis, pero, la primera se ve afectada por factores negativos o positivos presentes en nuestro registro personal vital que pueden ser condicionantes o condicionados. La edad biológica de un individuo sería el resultado de la interacción de factores genéticos, ambientales y temporales, con la posibilidad añadida de hallar más factores.

Un tratamiento “secreto”

A las preguntas de en qué situación estamos actualmente y qué podemos esperar de un futuro próximo, respondió el recipiendario que “se dispone de herramientas que, presumiblemente, pueden modificar el ritmo diario actuando sobre los nodos cruciales, consiguiendo repercusiones sobre el periodo vital”. Hay sustancias alimenticias con efectos positivos sobre el epigenoma (compuestos químicos que modifican o marcan el genoma y le indican qué hacer, dónde y cuándo), y sobre la microbiota (nuestra población intestinal de microbios) que, a su vez, puede producir sustancias con capacidad reguladora epigenética. Una correcta nutrición parece necesaria para evitar la aparición temprana de las marcas del envejecimiento, subrayó.

Por otra parte, “la reprogramación celular está consiguiendo hitos nunca sospechados hasta ahora, mediante la obtención de células en estados previos de desarrollo, que podrían utilizarse para regenerar funciones del organismo”. También la parabiosis puede ofrecer respuestas al envejecimiento, y una alimentación con contenido energético reducido ha probado consistentemente su eficacia en prolongar la vida de algunos animales, “sin embargo no está claro el efecto en humanos”. El ejercicio físico moderado demuestra sus beneficios en todo momento, y, finalmente, la melatonina parece ofrecer esperanzas en diversos aspectos de la salud y del periodo vital

Agis presentó la fórmula de un tratamiento que calificó de “secreto”, integrado por los siguientes elementos: una planta muy poco conocida, Teucrium marum, o tomillo de gato, con propiedades anticatarrales, afrodisíacas, antimigrañosas, antioxidantes, antineurodegenerativas y anticancerosas; sustancias activadoras de sirtuínas, como el resveratrol o la quercetina; te verde, que además de mejorar la capacidad cognitiva es antioxidante y anticanceroso; brécol, que contiene sulforafanos y quercetina, con propiedades anticancerosas e hipocolesterolemiantes, y cúrcuma, que Incrementa las sirtuínas antioxidantes. Con un consejo final: tomar estos elementos botánicos por la mañana y, por la noche, antes de dormir, melatonina, que es antioxidante, inmunoestimulante, sincronizante, anticancerosa, normalizadora metabólica, hipotensora y moduladora de sirtuínas.

La posibilidad de ralentizar el envejecimiento o de retrasar la muerte necesita del desarrollo de procedimientos adecuados, así como establecer los principios para llevarlo a cabo, añadió Agis. “Para ello, es necesario una colaboración entre las ciencias y las humanidades, dadas las implicaciones científicas, técnicas, pero también las éticas y legales. Esta Real Academia de Doctores de España es, en mi opinión, un crisol óptimo para la consecución de este propósito”, concluyó.

Maestría y experiencia docente

Profesor contratado del área de Fisiología, de la Facultad de Farmacia de la Universidad Complutense, y acreditado para profesor titular de universidad en el área de Ciencias de la Salud, Agis cultiva una disciplina inédita en la Sección de Farmacia de la RADE, la fisiología animal; lo que ha sido una de las razones esenciales por las que ha sido elegido Académico Correspondiente, explicó Antonio Doadrio Villarejo, Presidente de dicha sección, al presentar al recipiendario.

“Su maestría y experiencia docente en esta disciplina nos será muy útil en las diversas actividades de una sección que estamos dispuestos a renovar y relanzar”, agregó Doadrio. Agis es también revisor de revistas científicas internacionales y evaluador de proyectos de investigación de la Agencia Italiana del Fármaco.

Ha dirigido diversos trabajos de investigación, así como proyectos de innovación educativa. Miembro de distintas sociedades científicas, está en posesión de la Medalla de Químico-Farmacéutico Honorario de la Universidad de Trujillo (Perú), de la que es colaborador docente.

Ángel Agis: Hay “frenos” para incrementar el periodo vital y evitar los deterioros del envejecimiento

• Al ingresar en la RADE como académico correspondiente, el doctor Agis afirmó que la reprogramación celular podría dar marcha atrás a los relojes biológicos
• “En la historia oscura de la humanidad, es recurrente la fe en el poder curativo de la sangre joven”, apuntó el nuevo académico
• Curiosa aproximación, según Agis: el Génesis especifica una duración de ciento veinte años para la vida del hombre, mientras que Dong y sus colaboradores la estimaron en ciento veinticinco, en Nature, en 2016
• Los desajustes de los ritmos biológicos ocasionan fatiga, somnolencia, obesidad, daño oxidativo, o patologías: cáncer, síndrome metabólico, trastornos del sueño, enfermedades cardiovasculares, alteraciones del humor, depresión, déficit cognitivo, envejecimiento o neurodegeneración
• Una correcta nutrición parece necesaria para evitar la aparición temprana de las marcas del envejecimiento, subrayó Agis

- Pie de foto.- Ángel Agis Torres, durante su discurso de ingreso en la Real Academia de Doctores de España.

MADRID (11-12-17).- No hay respuesta positiva a la pregunta de si se puede dar marcha atrás a los relojes biológicos. Sin embargo, parece que hay “frenos” para incrementar el periodo vital y evitar los deterioros que acompañan al envejecimiento y, en un futuro próximo, la reprogramación celular podría ofrecer una respuesta afirmativa, aseguró el doctor Ángel Agis Torres al tomar posesión de su plaza de académico correspondiente de la Sección de Farmacia, de la Real Academia de Doctores de España (RADE), en un acto presidido por el titular de la corporación, Jesús Álvarez Fernández-Represa.

En su discurso, Los relojes de la vida ¿tienen marcha atrás?, el nuevo académico de la RADE destacó que, en la historia oscura de la humanidad, es recurrente la fe en el poder curativo de la sangre joven. Es inquietante saber que, en 1864, Bert publicó un artículo acerca del rejuvenecimiento en roedores mediante aplicación de la parabiosis heterocrónica, que consiste en poner en comunicación los sistemas circulatorios de un animal joven y el de otro anciano, para que este último recupere sus funcionalidades juveniles. Tales experimentos tuvieron auge entre 1960 y 1970, y siguen haciéndose en la actualidad, aunque en menor medida.

Entre cuantiosos detalles científicos aportados para describir factores, causas y procesos, Agis llamó la atención sobre la sorprendente aproximación entre la duración que el Génesis especifica para el periodo vital del hombre: ciento veinte años, y los ciento veinticinco estimados por Dong y sus colaboradores, publicada en Nature, en 2016.

Patologías por desajuste del reloj biológico

La vida discurre entre periodos o intervalos, en los que se desarrollan las actividades del organismo, manifestó Agis. El periodo más evidente es el diario, circadiano, en el que ocurren procesos tan conocidos como el ciclo vigilia-sueño. Hay también periodos superiores al día, infradianos, que pueden ser mensuales, como el ciclo ovárico, y estacionales, los ciclos reproductivos; así como periodos inferiores al día, ultradianos, la secreción de hormonas, que duran minutos u horas, y otros mucho más rápidos: base de tiempos o metrónomos fisiológicos, que son neuronales.

Cuando el reloj biológico se desajusta se producen alteraciones y patologías. Los ritmos se alteran porque se modifican las entradas sincronizadoras debido a la pérdida del contraste entre día y noche, consecuencia de una vida con poca luz durante el día, noches excesivamente iluminadas, o desplazamiento de la señal de sincronía al viajar por diferentes husos horarios. La ruptura de la sincronía puede tener su causa en la falta de coherencia entre actividades y el ciclo luz-oscuridad, por ejemplo, en las horas de las comidas, el ejercicio, la hora de acostarse o las relaciones sociales, que ocasionan alteraciones fisiológicas: fatiga, somnolencia, obesidad, daño oxidativo, o patologías: cáncer, síndrome metabólico, trastornos del sueño, enfermedades cardiovasculares, alteraciones del humor, depresión, déficit cognitivo, envejecimiento o neurodegeneración.

El envejecimiento, señaló Agis, se podría definir como “un proceso biológico multifactorial que se manifiesta por un declive de las funciones fisiológicas a lo largo del tiempo y que, finalmente, lleva a la muerte”. Las marcas del envejecimiento se observan sobre los genes, por el acortamiento de los telómeros, las estructuras dinámicas situadas en los extremos de los cromosomas que controlan el número de divisiones de la célula. Los telómeros se acortan con cada mitosis (proceso de reproducción de nuevas células) y, cuando llegan a un límite, la célula no puede dividirse más y entra en estado de senescencia replicativa, para posteriormente morir.

Un tratamiento “secreto”

“Se dispone de herramientas que, presumiblemente, pueden modificar el ritmo diario actuando sobre los nodos cruciales, consiguiendo repercusiones sobre el periodo vital”. Hay sustancias alimenticias con efectos positivos sobre el epigenoma (compuestos químicos que modifican o marcan el genoma y le indican qué hacer, dónde y cuándo), y sobre la microbiota (nuestra población intestinal de microbios) que, a su vez, puede producir sustancias con capacidad reguladora epigenética. Una correcta nutrición parece necesaria para evitar la aparición temprana de las marcas del envejecimiento, subrayó.

Por otra parte, “la reprogramación celular está consiguiendo hitos nunca sospechados hasta ahora, mediante la obtención de células en estados previos de desarrollo, que podrían utilizarse para regenerar funciones del organismo”. También la parabiosis puede ofrecer respuestas al envejecimiento, y una alimentación con contenido energético reducido ha probado consistentemente su eficacia en prolongar la vida de algunos animales, “sin embargo no está claro el efecto en humanos”. El ejercicio físico moderado demuestra sus beneficios en todo momento, y, finalmente, la melatonina parece ofrecer esperanzas en diversos aspectos de la salud y del periodo vital

Agis presentó la fórmula de un tratamiento que calificó de “secreto”, integrado por los siguientes elementos: una planta muy poco conocida, Teucrium marum, o tomillo de gato, con propiedades anticatarrales, afrodisíacas, antimigrañosas, antioxidantes, antineurodegenerativas y anticancerosas; sustancias activadoras de sirtuínas, como el resveratrol o la quercetina; te verde, que además de mejorar la capacidad cognitiva es antioxidante y anticanceroso; brécol, que contiene sulforafanos y quercetina, con propiedades anticancerosas e hipocolesterolemiantes, y cúrcuma, que Incrementa las sirtuínas antioxidantes. Con un consejo final: tomar estos elementos botánicos por la mañana y, por la noche, antes de dormir, melatonina, que es antioxidante, inmunoestimulante, sincronizante, anticancerosa, normalizadora metabólica, hipotensora y moduladora de sirtuínas.

Maestría y experiencia docente

Profesor contratado del área de Fisiología, de la Facultad de Farmacia de la Universidad Complutense, y acreditado para profesor titular de universidad en el área de Ciencias de la Salud, Agis cultiva una disciplina inédita en la Sección de Farmacia de la RADE, la fisiología animal, una de las razones esenciales por las que ha sido elegido académico correspondiente, explicó Antonio Doadrio Villarejo, Presidente de dicha sección, al presentar al recipiendario.

Agis es revisor de revistas científicas internacionales y evaluador de proyectos de investigación de la Agencia Italiana del Fármaco. Ha dirigido diversos trabajos de investigación, así como proyectos de innovación educativa. Miembro de distintas sociedades científicas, está en posesión de la Medalla de Químico-Farmacéutico Honorario de la Universidad de Trujillo (Perú), de la que es colaborador docente.

El espacio físico universitario debe defenderse del “campus virtual”, que deshumaniza el proceso formativo

 

Defender el espacio físico frente al “campus virtual”, que deshumaniza el proceso formativo, es una de las recomendaciones formulada por el nuevo Académico Numerario de la Real Academia de Doctores de España (RADE), Pablo Campos Calvo-Sotelo, en su discurso de ingreso en la Sección de Arquitectura y Bellas Artes, de dicha corporación, con la medalla número 59.

Doctor en Arquitectura, por la Universidad Politécnica de Madrid, y en Educación, por la Universidad de Salamanca, Campos Calvo-Sotelo recibió la felicitación de Su Majestad el Rey Emérito Juan Carlos I, que no pudo asistir al acto de ingreso, mediante una carta al Presidente de la RADE, que Jesús Álvarez Fernández-Represa leyó antes de levantar la sesión, en la que Su Majestad enviaba al nuevo académico su “cordial enhorabuena”, con sus mejores deseos para todos los miembros de la RADE.

El claustro monacal fue, en Occidente, “el primer tributo que desde la sensibilidad arquitectónica se obsequió a la misión formativa del ser humano”, señaló el recipiendario en su discurso La contribución de la arquitectura a la formación humana en la universidad. Las estructuras claustrales han sembrado el territorio universitario europeo: Alcalá, Salamanca, Santiago, Valladolid, Oxford y Cambridge.

La seña de identidad más sólida de la universidad europea, apuntó, es la plena integración de sus estructuras en las tramas ciudadanas, cuyos paradigmas son la Sorbona napoleónica y la Universidad de Berlín. De allí, pasó el orador a los campus transoceánicos, auténticos ecosistemas de aprendizaje que, al incorporar toda clase de equipamientos, fraguarían verdaderos poblados académicos, caracterizados por “extensos parajes segregados, de contundente presencia de la naturaleza”, cuya perfecta ilustración la constituye la Universidad de Virginia (1817).

La universidad de masas, ejemplo de insensibilidad

Tras la II Guerra Mundial, en las décadas de los sesenta y setenta, comenzó a tomar cuerpo la universidad de masas. Incuestionable por su vocación de canalizar la accesibilidad social generalizada a la educación superior; sin embargo, “debe subrayarse sin pudor que las soluciones urbanísticas y arquitectónicas no tuvieron un ápice de sensibilidad para con ese mis colectivo numerosísimo de personas a las que se daba la oportunidad de disfrutar de una formación superior”, agregó. No obstante, reconoció, “se han acometido implantaciones universitarias que han supuesto un certero retorno al abandonado corazón urbano”, como en los casos de la Pompeu Frabra, Politécnica de Cartagena, Castilla-­La Mancha (Toledo) o Carlos III de Madrid.

“La arquitectura de la universidad ha de asumir con renovada sensibilidad su trascendencia de cara al cumplimiento de un cometido de altísima importancia: albergar el proceso formativo del ser humano”, afirmó Campos Calvo-Sotelo; para, a continuación, añadir: “Pero no podemos caer en la complacencia. Los espacios universitarios arrastran todavía la pesada carga del inmovilismo que ha caracterizado su devenir desde hace décadas. Es tiempo de acometer una reinvención integral, donde se combinen la delicadeza proyectual y el aplomo institucional. No parecen soplar vientos de bonanza económica, por lo que la necesaria reinvención debe estar cargada de grandes dosis de imaginación. Existe la posibilidad de hacerlo; y también la obligación”.

Expuso el recipiendario algunas recomendaciones para abordar la reinvención integral de los recintos universitarios: crear espacios que permitan alterar la rutina cotidiana, incorporar a recintos, edificios y aulas lugares cargados de simbolismo y emotividad, que el nuevo académico denomina la dimensión poética de las arquitectura, y defender el espacio físico frente al “campus virtual”, que deshumaniza el proceso formativo. Todo lo cual le ha llevado a su proyecto de Campus Didáctico, “herramienta teórico-práctica capaz de impulsar procesos de transformación cualitativa de recintos universitarios”, fruto de su segunda tesis doctoral, que plantea, como directriz de innovación para el futuro, la misión didáctica, como faceta trascendental de la universidad.

La fundamentación de la utopía, “que ha estado presente como energía de transformación utilizada históricamente por las universidades para impulsar sus ideales y estructuras; y en su labor dinamizadora se ha visto siempre acompañada de la arquitectura, tanto en su calidad de realidad construida, como en forma de vehículo de expresión plástica”. Este es el primer elemento de los dieciocho que integran dicho proyecto. Sus ejemplos son la Universidad de Virginia y la Ciudad Universitaria de Madrid. En segundo lugar, los planes de evolución de un recinto docente han de realizarse bajo una premisa de flexibilidad compositiva y funcional, rasgo que “ha de aplicarse a la tétrada de escalas universitarias (aula, edificio, recinto y ciudad), con el fin de generar espacios polifacéticos, convertibles y abiertos”. Las universidades de Alcalá y Católica de Lovaina dan testimonio de este modelo.

Comunidades vivenciales de aprendizaje

Puesto que aprender en grupo es provechoso, se deben consolidar comunidades vivenciales de aprendizaje para que prevalezca la escala humana; para lo que el recinto universitario debe gozar de integridad funcional. Sus ejemplos son la Autónoma de Madrid y Stanford. La “aplicación de ciertas estrategias compositivas a un complejo académico debe fijarse como propósito enriquecerlo mediante un adecuado equilibrio entre unidad y diversidad”, lo que afecta a sus dos manifestaciones esenciales: urbanística y arquitectónica, como ocurre en McGill (Montreal) y Cantabria (Las Llamas). La armonía en su forma construida es una cualidad especialmente exigible en la institución universitaria, que representan Vigo (Lagoas-Marconsede) y Oxford.

Incorporar ámbitos que refuercen la deseable dimensión humana, como la peatonalidad que favorece el caminar pausado, constituye la sexta propuesta, apreciable en el Instituto Salk para Estudios Biológicos (San Diego, EE.UU.), y la Jaume I (Castellón). Para Campos Calvo-Sotelo, se justifica plenamente defender que la naturaleza ha de cumplir una misión formativa en los recintos universitarios, con tres acepciones: contexto, tema y estímulo, de lo que son ejemplos las universidades de Aalto (Finlandia) y de Alicante. Integrar y promocionar el arte en los recintos universitarios impulsa la creatividad en los procesos educativos, como sucede en la Politécnica de Valencia y en la Central de Venezuela. La arquitectura, y otras artes plásticas, “como vocabulario de un lenguaje no verbal, son capaces de manifestar simbólicamente la personalidad de la universidad, según la novena propuesta, de la que son paradigma la Universidad de Salamanca y la Nacional Autónoma de México.

La universidad debe interiorizar la apertura al entorno y la accesibilidad para el aprendizaje, como en las universidades de Santiago de Compostela y de Nueva York. Es incuestionable, mantiene el recipiendario, que todo complejo docente cualificado nazca de su adecuación al medio, en diálogo con las características morfológicas y socioculturales del emplazamiento, como en la Cartuja de la Universidad de Granada y en Coimbra. Las universidades deben ser ejemplos de sostenibilidad, incluso, económica, que aconseja huir de la duplicidad de instalaciones, como han hecho la Universidad de Málaga y la de Duquesne (Pittsburg). Idear un recinto universitario puede recurrir a la memoria tipológica de los paradigmas urbanístico-arquitectónicos heredados, para reinventar su propia tradición; como en los casos de Rice (Houston) y el recinto de Barri Vell gerundés. En busca de equilibrio entre cambio y continuidad, las universidades deberán preservar y optimizar cuantos valores hayan recibido como legado del ayer, como en la Carlos III de Madrid y en la Pontificia Católica de Chile.

La presencia de una institución universitaria derivará en acciones de recuperación urbanístico-arquitectónica sobre elementos patrimoniales cercanos, de lo que son ejemplos las universidades de Cagliari y Politécnica de Cartagena. Habrá que buscar siempre, continuó, un equilibrio entre vanguardia y memoria, espléndidas suministradoras de inspiración para el diseño, que ejemplifican el recinto valenciano de Tarongers y el Instituto Tecnológico de Illinois. Para Campos Calvo-Sotelo, todo proyecto universitario debe tributar a la integración de la urbe, tanto social como compositivamente, como se comprueba en Bolonia, Oxford, Cambridge, Coimbra, Valladolid, Santiago o Salamanca. Y, según la decimoctava propuesta, se deben ensamblar, en clave de creatividad compositiva, la activación de espacios que antes no albergaban acciones formativas y la apuesta por la modalidad de enseñanza/aprendizaje alternativas a la tradicional lección magistral, de lo que son loables esfuerzos la Autónoma de Barcelona, Málaga, Girona y Politécnica de Madrid, y las holandesas Utrecht y Técnica de Delft.

La reflexión profunda sobre los valores que una obra arquitectónica transmite “la encontramos en una docena de sus libros y en capítulos de otros, donde con razonamientos lógicos e inteligentes analiza la arquitectura desde el umbral de la civilización”, dijo la doctora Garcerán Piqueras, al contestar al discurso de campos Calvo-Sotelo. Mencionó, a continuación, las realizaciones por las que ha sido votado por los miembros de la Academia. Entre ellas, los campus de la Universidad Nacional de Educación (Ecuador, 2014), de la Universidad de Alcalá (2008), de la Universidad de La Rioja y de la Misratah University (Libya, 2008); y los planes directores de las universidades de A Coruña (2009) y de La Laguna (2008).

La proyección del nuevo académico, prosiguió Garcerán, se configuró en sus dos doctorados, en los que fue adquiriendo los conocimientos multidisciplinares cuya aportación a esta Academia “deseamos y esperamos incrementen nuestras iniciativas”, agregó. Su labor docente se ha proyectado durante dieciséis años en escuelas de Arquitectura y catorce tesis doctorales dirigidas o codirigidas, además de en ciento setenta conferencias en España y el extranjero. Ha sido profesor invitado en prestigiosas universidades de diversos países, como Stanford, Columbia, Virginia, Nueva York, Pittsburgh, Illinois (Chicago), California, Lisboa, Oporto, McGill, TEC-Monterrey, La Sapienza, Cagliari, Delf, Atenas y Bhutan, entre otras.

El espacio físico universitario debe defenderse del “campus virtual”, que deshumaniza el proceso formativo

· Pablo Campos Calvo-Sotelo ingresa en la Real Academia de Doctores de España con un discurso sobre la contribución de la arquitectura a la formación humana en la universidad
· “La arquitectura de la universidad ha de asumir con renovada sensibilidad su trascendencia de cara al cumplimiento de un cometido de altísima importancia: albergar el proceso formativo del ser humano, afirmó
· “Los espacios universitarios arrastran todavía la pesada carga del inmovilismo que ha caracterizado su devenir desde hace décadas. Es tiempo de acometer una reinvención integral, donde se combinen la delicadeza proyectual y el aplomo institucional”, advirtió el nuevo académico
· Campos Calvo-Sotelo es autor del proyecto Campus Didáctico, “herramienta teórico-práctica capaz de impulsar procesos de transformación cualitativa de recintos universitarios”

- Pie de foto.- Pablo Campos Calvo-Sotelo, durante la lectura de su discurso de ingreso.


MADRID (18-12-17).- Defender el espacio físico frente al “campus virtual”, que deshumaniza el proceso formativo, es una de las recomendaciones formulada por el nuevo académico numerario de la Real Academia de Doctores de España (RADE), Pablo Campos Calvo-Sotelo, en su discurso de ingreso en la Sección de Arquitectura y Bellas Artes, de dicha corporación, con la medalla número 59.

Doctor en Arquitectura, por la Universidad Politécnica de Madrid, y en Educación, por la Universidad de Salamanca, Campos Calvo-Sotelo recibió la felicitación del Rey Emérito Juan Carlos I, que no pudo asistir al acto, mediante una carta que el Presidente de la RADE, Jesús Álvarez Fernández-Represa, leyó antes de levantar la sesión, en la que Su Majestad enviaba al nuevo académico su “cordial enhorabuena”, con sus mejores deseos para todos los miembros de la RADE.

“La arquitectura de la universidad ha de asumir con renovada sensibilidad su trascendencia de cara al cumplimiento de un cometido de altísima importancia: albergar el proceso formativo del ser humano”, afirmó Campos Calvo-Sotelo para, a continuación, añadir: “Pero no podemos caer en la complacencia. Los espacios universitarios arrastran todavía la pesada carga del inmovilismo que ha caracterizado su devenir desde hace décadas. Es tiempo de acometer una reinvención integral, donde se combinen la delicadeza proyectual y el aplomo institucional. No parecen soplar vientos de bonanza económica, por lo que la necesaria reinvención debe estar cargada de grandes dosis de imaginación. Existe la posibilidad de hacerlo; y también la obligación”.

Expuso el recipiendario algunas recomendaciones para abordar la reinvención integral de los recintos universitarios: crear espacios que permitan alterar la rutina cotidiana, incorporar a recintos, edificios y aulas lugares cargados de simbolismo y emotividad, que el nuevo académico denomina la dimensión poética de las arquitectura, y defender el espacio físico frente al “campus virtual”, que deshumaniza el proceso formativo. Todo lo cual le ha llevado a su proyecto de Campus Didáctico, “herramienta teórico-práctica capaz de impulsar procesos de transformación cualitativa de recintos universitarios”, fruto de su segunda tesis doctoral, que plantea, como directriz de innovación para el futuro, la misión didáctica, como faceta trascendental de la universidad.

Campus Didáctico: utopía, flexibilidad, comunidad vivencial…

El primer elemento de los dieciocho que integran dicho proyecto es la fundamentación de la utopía, “que ha estado presente como energía de transformación utilizada históricamente por las universidades para impulsar sus ideales y estructuras; y en su labor dinamizadora se ha visto siempre acompañada de la arquitectura, tanto en su calidad de realidad construida, como en forma de vehículo de expresión plástica”. Sus ejemplos son la Universidad de Virginia y la Ciudad Universitaria de Madrid. En segundo lugar, los planes de evolución de un recinto docente han de realizarse bajo una premisa de flexibilidad compositiva y funcional, rasgo que “ha de aplicarse a la tétrada de escalas universitarias (aula, edificio, recinto y ciudad), con el fin de generar espacios polifacéticos, convertibles y abiertos”. Las universidades de Alcalá y Católica de Lovaina dan testimonio de este modelo.

Puesto que aprender en grupo es provechoso, se deben consolidar comunidades vivenciales de aprendizaje para que prevalezca la escala humana; para lo que el recinto universitario debe gozar de integridad funcional. Sus ejemplos son la Autónoma de Madrid y Stanford. La “aplicación de ciertas estrategias compositivas a un complejo académico debe fijarse como propósito enriquecerlo mediante un adecuado equilibrio entre unidad y diversidad”, lo que afecta a sus dos manifestaciones esenciales: urbanística y arquitectónica, como ocurre en McGill (Montreal) y Cantabria (Las Llamas). La armonía en su forma construida es una cualidad especialmente exigible en la institución universitaria, que representan Vigo (Lagoas-Marconsede) y Oxford.

Incorporar ámbitos que refuercen la deseable dimensión humana, como la peatonalidad que favorece el caminar pausado, constituye la sexta propuesta, apreciable en el Instituto Salk para Estudios Biológicos (San Diego, EE.UU.), y la Jaume I (Castellón). Para Campos Calvo-Sotelo, se justifica plenamente defender que la naturaleza ha de cumplir una misión formativa en los recintos universitarios, con tres acepciones: contexto, tema y estímulo, de lo que son ejemplos las universidades de Aalto (Finlandia) y de Alicante. Integrar y promocionar el arte en los recintos universitarios impulsa la creatividad en los procesos educativos, como sucede en la Politécnica de Valencia y en la Central de Venezuela. La arquitectura, y otras artes plásticas, “como vocabulario de un lenguaje no verbal, son capaces de manifestar simbólicamente la personalidad de la universidad, según la novena propuesta, de la que son paradigma la Universidad de Salamanca y la Nacional Autónoma de México.

Apertura al entorno y accesibilidad

La universidad debe interiorizar la apertura al entorno y la accesibilidad para el aprendizaje, como en las universidades de Santiago de Compostela y de Nueva York. Es incuestionable, mantiene el recipiendario, que todo complejo docente cualificado nazca de su adecuación al medio, en diálogo con las características morfológicas y socioculturales del emplazamiento, como en la Cartuja de la Universidad de Granada y en Coimbra. Las universidades deben ser ejemplos de sostenibilidad, incluso, económica, que aconseja huir de la duplicidad de instalaciones, como han hecho la Universidad de Málaga y la de Duquesne (Pittsburg). Idear un recinto universitario puede recurrir a la memoria tipológica de los paradigmas urbanístico-arquitectónicos heredados, para reinventar su propia tradición; como en los casos de Rice (Houston) y el recinto de Barri Vell gerundés. En busca de equilibrio entre cambio y continuidad, las universidades deberán preservar y optimizar cuantos valores hayan recibido como legado del ayer, como en la Carlos III de Madrid y en la Pontificia Católica de Chile.

La presencia de una institución universitaria derivará en acciones de recuperación urbanístico-arquitectónica sobre elementos patrimoniales cercanos, de lo que son ejemplos las universidades de Cagliari y Politécnica de Cartagena. Habrá que buscar siempre, continuó, un equilibrio entre vanguardia y memoria, espléndidas suministradoras de inspiración para el diseño, que ejemplifican el recinto valenciano de Tarongers y el Instituto Tecnológico de Illinois. Para Campos Calvo-Sotelo, todo proyecto universitario debe tributar a la integración de la urbe, tanto social como compositivamente, como se comprueba en Bolonia, Oxford, Cambridge, Coimbra, Valladolid, Santiago o Salamanca. Y, según la decimoctava propuesta, se deben ensamblar, en clave de creatividad compositiva, la activación de espacios que antes no albergaban acciones formativas y la apuesta por la modalidad de enseñanza/aprendizaje alternativas a la tradicional lección magistral, de lo que son loables esfuerzos la Autónoma de Barcelona, Málaga, Girona y Politécnica de Madrid, y las holandesas Utrecht y Técnica de Delft.

Conocimientos multidisciplinares

La reflexión profunda sobre los valores que una obra arquitectónica transmite “la encontramos en una docena de sus libros y en capítulos de otros, donde con razonamientos lógicos e inteligentes analiza la arquitectura desde el umbral de la civilización”, dijo la doctora Garcerán Piqueras, al contestar al discurso de Campos Calvo-Sotelo. Mencionó, a continuación, las realizaciones por las que ha sido votado por los miembros de la Academia. Entre ellas, los campus de la Universidad Nacional de Educación (Ecuador, 2014), de la Universidad de Alcalá (2008), de la Universidad de La Rioja y de la Misratah University (Libya, 2008); y los planes directores de las universidades de A Coruña (2009) y de La Laguna (2008).

La proyección del nuevo académico, prosiguió Garcerán, se configuró en sus dos doctorados, en los que fue adquiriendo los conocimientos multidisciplinares cuya aportación a esta Academia “deseamos y esperamos incrementen nuestras iniciativas”, agregó. Su labor docente se ha proyectado durante dieciséis años en escuelas de Arquitectura y catorce tesis doctorales dirigidas o codirigidas, además de en ciento setenta conferencias en España y el extranjero. Ha sido profesor invitado en prestigiosas universidades de diversos países, como Stanford, Columbia, Virginia, Nueva York, Pittsburgh, Illinois (Chicago), California, Lisboa, Oporto, McGill, TEC-Monterrey, La Sapienza, Cagliari, Delf, Atenas y Bhutan, entre otras.

Fernando Benzo Mestre es un símbolo de todos cuantos hicieron posible la Transición a la democracia

 

Fernando Benzo Mestre no solo contribuyó decididamente al proceso de la Transición a la democracia, sino que es un símbolo de aquellos políticos que renuncian a un futuro más atractivo en el campo privado y se comprometen con el servicio público, y de cuantos españoles han trabajado para que España se constituyera en un Estado social y democrático de derecho. En estos términos se manifestaron los participantes en la sesión in memoriam organizada por la Real Academia de Doctores de España (RADE), en homenaje a quien ingresó, como Académico de Número, el 4 de febrero de 2004, con su discurso Las ideas jurídicas de Don Quijote, y en 2015 recibió la medalla de oro de la institución.

Abrió el turno de intervenciones el Secretario de Estado de Cultura, Fernando Benzo Sainz, después de que el Presidente de la RADE agradeciera la presencia a los asistentes, entre los que destacó al exPresidente del Parlamento Europeo, José María Gil Robles. Benzo Sainz destacó la capacidad de estudio de su tío, que aprobó sucesivamente las oposiciones a jurídico militar, abogado del Estado, inspector de servicios de Hacienda y letrado de las Cortes, antes de ocupar altos cargos en la Administración; así como su pasión literaria y pictórica y sus valores personales y familiares.

Creía, subrayó, en el servicio a los demás. En un servicio público basado en los principios inculcados por su padre: generosidad, moderación y justicia. Con ellos ejerció como diputado de la UCD y sus responsabilidades en Hacienda e Industria. “Es un símbolo de aquellos políticos que renunciaban a un futuro más atractivo en el campo privado y se comprometían en un proyecto que desembocó en esta España de libertad, prosperidad y justicia en que vivimos”, añadió.

Su ansia por aprender y descubrir no se agotó hasta los últimos días de su vida, prosiguió Benzo Sainz, al poner de relieve los rasgos que Fernando Benzo compartía con sus hermanos Miguel y Rafael, como la renuncia personal a gastos superfluos, un sentido del humor inesperado e ingenioso, una fe religiosa sin fanatismos excluyentes, un profundo afán de justicia social y una firme creencia y defensa de la familia como centro vital indispensable.

Una izquierda poco reconciliadora

Fernando Suárez González, miembro de la Real Academia de Ciencias Morales y Políticas, afirmó que los servicios a la nación de Benzo Mestre se iniciaron ya cuando era coronel auditor, abogado del Estado, inspector de servicios de Hacienda y letrado de las Cortes. Con ese bagaje previo aceptó ser director general en el Ministerio de Hacienda, entre 1962 y 1968; Subsecretario de Industria, entre 1969 y 1974, y Subsecretario de Haciencia, entre 1974 y 1976. Fue consejero nacional del Movimiento, por Santander, y perteneció a la décima legislatura de las Cortes Españolas. Como literato, obtuvo el Premio Sésamo con su novela La búsqueda, y el Premio Villa de Las Rozas, con El pronunciamiento del brigadier Lezama. Su última novela fue Milagro en Monterreal. Y dedicó muchas horas de ocio a la pintura, con un estilo naïf de gran vistosidad.

Recordó Suárez el artículo publicado por el homenajeado en ABC, en 1977, en el que elogiaba la reforma política hecha en paz y sin estridencia. “Pocas veces, quizá ninguna, una clase política instalada en el poder haya decidido por sí misma cambiar una parte importante de su fundamento ideológico y ofrecer el poder al pueblo de una forma nueva y abierta”, decía el autor. Mantenía Benzo Mestre que, para escribir una historia nueva, el espíritu de concordia tenía que sobreponerse a cualquier otro resentimiento. Pero, enseguida se empezó a demostrar que las cosas no iban a ser así. La izquierda entraba en el juego político con actitud bien poco reconciliadora, como había anticipado el homenajeado en unas declaraciones a ABC.

Muchos centristas, agregó Suárez, “cayeron en el error de suponer que para ser demócrata había que ser antifranquista. La proclamada reconciliación no se produjo en rigor entre vencedores y vencidos, sino entre gobernantes centristas y los nacionalismos y las izquierdas, concordes ambos en el alejamiento de cuanto había significado el régimen instaurador de la Corona. La izquierda advirtió que aún siendo su tradición histórica tan poco democrática como la de la derecha, iba a poder extender su versión de los acontecimientos sin resistencia alguna. Y de ahí que el camino entonces iniciado haya desembocado en una situación en la que los herederos de los vencidos en 1939 pretenden alzarse con la victoria, mientras los vencedores no tienen herederos”. Me consta, precisó Suárez, “que esa política hacía especialmente incómoda la situación de Fernando Benzo Mestre que, tras la aprobación de la Constitución, abandonó la vida política sin estridencia alguna y con el señorío y la discreción que caracterizaron toda su vida”.

Benzo Mestre, terminó Suárez, “es un símbolo de cuantos españoles hemos contribuido a que por fin España se constituya en un Estado social y democrático de derecho, y los autoritarismos hayan entrado en la historia, esperemos que definitivamente; pero sin falsificar sus orígenes, sin denigrar sus realizaciones y sin intentar siquiera considerar producto de la dictadura a la Corona, felizmente restaurada y de cuya capacidad integradora tenemos tan recientes y definitivas pruebas”.

Un sabio de la vida

Para Luis María Cazorla Prieto, miembro de la Real Academia de Jurisprudencia y Legislación, la nota predominante de Fernando Benzo Mestre fue ser jurista, y con ella personifica una generación que urdió los mimbres de un sistema jurídico que permitió la llegada del sistema democrático. Fue, además, un sabio de la vida, con un conjunto de cualidades con las que superó su condición de jurista. Sabio como jurista profesional, lo fue también como patriota y con su forma de ser, y supo llevar a cabo una vida plena y ayudar a los demás a tenerla.

Antonio Jiménez-Blanco Carrillo de Albornoz, Académico de Número de la sección de Derecho de la RADE, resaltó la figura de Benzo Mestre como doctor y como letrado de las Cortes. Se doctoró en 1964, con 40 años, después de haber sacado todas las oposiciones mencionadas, dijo. En la RADE fue elegido miembro de la Sección de Derecho en 2003, con el aval de Alberto Ballarín, y tomó posesión el 4 de febrero de 2004, con su discurso Las ideas jurídicas de Don Quijote. Tenía entonces cerca de 80 años y ocupaba la medalla número 43, que antes tuviera Manuel Fraga. En 2015 se le concedió la medalla de oro de la corporación.

En 1958 se incorporó al puesto de letrado de las Cortes, con el número uno de la oposición, junto a otros tres opositores, dos de los cuales estaban presentes en la sesión: Mariano Arana y José María Gil Robles. Desde su ingreso, apuntó Giménez-Blanco, hace casi 60 años, apoyó de forma extraordinaria la entrada de las mujeres en las Cortes.

De fácil acceso y siempre dispuesto a ayudar

En nombre de toda la familia, y especialmente de su madre, Javier Benzo Perea dio las gracias a todos por el homenaje ofrecido a la memoria de su padre. Rememoró su ingreso en la RADE y la enorme satisfacción que le produjo, porque lo valoraba de forma muy especial, Comenzó la carrera de Medicina, agregó al hacer un recorrido sobre su vida, pero al acabar el primer curso decidió seguir la de Derecho, que terminó en tres años para no sobrecargar la economía familiar, con nota media de sobresaliente.

“Nunca aceptó puestos por motivos económicos, sino por su vocación de servicio público”, señaló. Entre las diferentes opciones que tenía, decidió ejercer como letrado de las Cortes porque aglutinaba todo lo que le gustaba: las leyes, el servicio público y la política. Era hombre de fácil acceso y siempre dispuesto a ayudar. “Era habitual que vinieran personas a casa a solicitar su ayuda o su consejo”, subrayó Javier Benzo. Su salud era a prueba de bombas, salvo el marcapasos que llevaba desde hacía años. No bebió ni fumó. Dormía ocho horas diarias. No hacía deporte, cuya práctica consideraba poco aconsejable. Le divertía jugar al mus. Si ganaba, le gustaba contarlo “y, cuando perdía, se quedaba en silencio, que todos respetábamos”, puntualizó.

Cuando se jubiló hizo todo lo que antes no había podido hacer, como escribir y pintar cuadros, que cuelgan de las paredes de las casas de hijos, nietos y amigos. “Tenía un carácter tolerante y comprensivo, pero exigente y perfeccionista, seguramente más con él que con los demás”, continuó el ponente. “Nunca hablaba de sí mismo, sino de nosotros y de nuestros éxitos”. Se sentía defraudado con la pérdida de ética y moralidad en la sociedad, sobre todo en sus dirigentes, y no entendía que la religiosidad estuviera fuera de moda. “Era optimista y creía en un mundo mejor”, terminó Javier Benzo.

Antes de levantar la sesión, el doctor Álvarez Fernández-Represa manifestó que la RADE se enorgullece de haber tenido a una persona como Fernando Benzo Mestre entre sus miembros, porque ha sido uno de los académicos más importantes que ha tenido esta casa.

D. Antonio Bascones Martínez elegido Presidente de la Real Academia de Doctores de España

El día de ayer, 20 de diciembre de 2017, el Pleno Académicos de Número eligió al Profesor D. Antonio Bascones Martínez Presidente de la Real Academia de Doctores de España.

Toma de posesión como Académicos de Número

Dr. D. Martín Almagro Gorbea

El Dr. D. Martín Almagro Gorbea tomó posesión de su plaza de Académico de Número perteneciente a la Secció de Humanidades, medalla nº 32. El discurso de ingreso versó sobre: Las raices celtas de la cultura castellana.
Le contestó en nombre de la Corporación el Dr. D. Emilio de Diego García, Secretario General de la Academia y Académico de Número de la misma Sección

Dr. D. Antonio Jiménez-Blanco Carrillo de Albornoz

El Dr. D. Antonio Jiménez-Blanco Carrillo de Albornoz tomó posesión de su plaza de Académico de Número perteneciente a la Sección de Derecho, medalla nº 103. El discurso de ingreso versó sobre: La crisis de la integración de Europa: ¿tiene remedio?.
Le contestó en nombre de la Corporación el Dr. D. Fernando Becker Zuazua, Académico de Número de la Sección de Ciencias Políticas y de la Economía.
El acto contó con la presencia del Sr. D. Íñigo Méndez de Vigo y Montojo, Ministro de Educación, Cultura y Deporte.

Dr. D. José Javier Etayo Gordejuela

El Dr. D. José Javier Etayo Gordejuela tomó posesión de su plaza de Académico de Número perteneciente a la Sección de Ciencias Experimentales, medalla nº 55. El discurso de ingreso versó sobre: Un estudio de las superficies no orientables. Notas para una genealogía doctoral.
Le contestó en nombre de la Corporación el Dr. D. Arturo Romero Salvador, Académico de Número de la Sección.

Dr. D. José Julián Garde López-Brea

El Dr. D. José Julián Garde López-Brea tomó posesión de su plaza de Académico de Número perteneciente a la Secció de Veterinaria, medalla nº 60. El discurso de ingreso versó sobre: Nuevos y antiguos retos de la espermatología veterinaria.
Le contestó en nombre de la Corporación el Dr. D. Arturo Ramón Anadón Navarro, Académico de Número de la Sección.

Dr. D. Pablo Campos Calvo-Sotelo

El Dr. D. Pablo Campos Calvo-Sotelo tomó posesión de su plaza de Académico de Número perteneciente a la Sección de Arquitectura y Bellas Artes, medalla nº 59. El discurso de ingreso versó sobre: La contribución de la arquitectura a la formación humana en la universidad.
Le contestó en nombre de la Corporación la Dra. Dª. Rosa María Garcerán Piqueras, Académica de Número y Presidenta de la Sección

Sesiones no Solemnes

Sesiones

Las ondas gravitacionales: otro logro de Einstein

Sesión organizada por la Sección de Ciencias Experimentales en honor de Albert Einstein.

Intervienen:

Dr. D. Jesús Álvarez-Fernández Represa
Presidente de la Real Academia de Doctores de España
Apertura del acto

Dr. D. Manuel García Velarde
Académico de Número de la Sección de Ciencias Experimentales
Moderador

Dr. D. José Luis Fernández Barbón
Investigador Científico del Instituto de Física Teórica CSIC/UAM
Relatividad general, la teoría de Einstein sobre la gravitación

Dr. D. Rafael Bachiller García
Académico de Número de la Sección de Ciencias Experimentales. Director del Observatorio Astronómico Nacional
La detección de las ondas gravitacionales y sus implicaciones astrofísicas

Retos y desafíos para la banca: entre la mayor regulación y el nuevo modelo de negocio

Sesión a cargo del Dr. D. Rafael Morales-Arce Macías, Académico de Número de la Sección de Ciencias Políticas y de la Economía, sobre el tema: Retos y desafíos para la banca: entre la mayor regulación y el nuevo modelo de negocio

Innovación y bienestar

Sesión a cargo del Dr. D. Juan Miguel Villar Mir, Académico de Honor de la RADE, sobre el tema: Innovación y bienestar.

José María Albareda (1902-1966)

Sesión organizada por la Sección de Farmacia

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la RADE
Apertura del acto

Dra. Dña. Rosa Basante Pol
Académica de Número de la Sección de Farmacia
Moderadora

Dr. D. Alfredo Baratas Díaz
Profesor de Historia de la Ciencia. Universidad Complutense de Madrid
José María Albareda: ciencia y política en los años grises

Dr. D. Antonio González-Bueno
Académico Correspondiente de la Sección de Ciencias Experimentales
La trascendencia de lo cotidiano. José María Albareda y el grupo Edalphos

Dr. D. Jesús Álvarez Fernández-Represa
Clausura del acto

El gasto en sanidad en España

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la Real Academia de Doctores
Apertura del Acto y bienvenida

Dr. D. Juan Iranzo Martín
Académico de Número de la Sección de Ciencias Políticas y de la Economía
La sostenibilidad del Sistema Nacional de Salud

Dra. Dª. Inés López-Ibor Alcocer
Académica Correspondiente de la Sección de Medicina
El coste de las enfermedades mentales

Dr. D. Eugenio Prieto Pérez
Académico de Número de la Sección de Ciencias Políticas y de la Economía
Sostenibilidad del sistema y modificaciones aconsejables

Sobre el derrumbamiento de las torres gemelas de Nueva York

Sesión organizada por las Secciones de Ciencias Experimentales e Ingeniería.

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la RADE
Apertura del acto y bienvenida

Dr. D. Manuel García Velarde
Académico de Número de la Sección de Ciencias Experimentales
Moderador

Sr. D. Antonio Mas-Guindal Lafarga
Departamento de Estructuras y Física de Edificación, E.T.S. de Arquitectura, U. Politécnica de Madrid

Dr. D. José María Martínez-Val Peñalosa
Académico de Número y Presidente de la Sección de Ingeniería

El vehículo eléctrico: nuevo paradigma industrial y social

Sesión organizada por la Sección de Ingeniería

Intervienen:

Sr. D. Ernesto Salas
Director de Relaciones Institucionales RENAULT España
El automóvil eléctrico y sus características

Sr. D. Francisco Laverón
Responsable de Prospectiva Energética. IBERDROLA
Cambio climático, contaminación y el V.E.

Sr. D. Javier Cano
Responsable de la Oficina Técnica de la Dirección, F212
Experiencia real: el Clúster del V.E. de la F212:>300.000 Km.

Dr. D. José María Martínez-Val
Patrono-Director de la F212, Presidente de la Sección de Ingeniería
Presentación de la iniciativa del estudio: El gran Madrid en 25 años: 5 millones de vehículos eléctricos

Dr. D. Saturnino de la Plaza Pérez
Vicepresidente de la RADE
Moderador

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la RADE
Clausura

Sesión patrocinada por la Fundación para el Fomento de la Innovación Industrial (F212)

A los 500 años de Lutero: Desencuentro y encuentro

Sesión organizada por la Sección de Teología

Intervienen:

Dr. D. Jesús Álvarez-Fernández Represa
Presidente de la Real Academia de Doctores de España
Apertura del acto y bienvenida

Dr. D. Santiago Madrigal Terrazas
Académico de Número y Presidente de la Sección de Teología
Moderador

Dr. D. Juan Antonio Martínez Camino
Académico de Número de la Sección de Teología
¿Cómo encuentro a un Dios misericordioso?

Dr. D. Martín Gelabert Ballester
Académico de Número de la Sección de Teología
¿Cómo nos salva Dios?

España ayer y hoy: D. Leopoldo O´Donnell y su tiempo (en el 150 aniversario de su fallecimiento)

Sesión a cargo del Dr. D. Emilio de Diego García, Académico de Número de la Sección de Humanidades y Secretario General de la RADE, sobre el tema: España ayer y hoy: D. Leopoldo O´Donnell y su tiempo (en el 150 aniversario de su fallecimiento).

La transición política española: análisis y enseñanzas de utilidad ante los acontecimientos futuros

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la Real Academia de Doctores de España
Apertura del acto y bienvenida

Dr. D. Fernando Suárez González
Académico de la Real Academia de Ciencias Morales y Políticas

Dr. D. Ramón Tamames Gómez
Académico de la Real Academia de Ciencias Morales y Políticas

Dr. D. Ignacio Camuñas Solís
Ex Ministro de Relaciones con las Cortes y Diplomático

Dr. D. Rafael Morales-Arce Macías
Académico de Número de la Sección de Ciencias Políticas y de la Economía
Moderador

La autonomía estratégica de la UE: ¿Podemos ser autónomos?

Sesión organizada por la Sección de Derecho

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la Real Academia de Doctores de España
Apertura del acto y bienvenida

Dr. D. Gustavo Suárez Pertierra
Académico de Número de la Sección de Derecho
Moderador

Sra. Dª. Elena Gómez Castro
Directora General de Política de Defensa del Ministerio de Defensa

Sr. D. Carlos Miranda
Embajador de España

Sr. D. Félix Arteaga Martín
Analista Principal de Seguridad y Defensa del Real Instituto Elcano

La pretendida secesión de Cataluña en el Derecho Internacional

Sesión a cargo del Dr. D. José Antonio Tomás Ortiz de la Torre, Académico de Número y Presidente de la Sección de Derecho, sobre el tema: La pretendida secesión de Cataluña en el Derecho Internacional.

La transición exterior

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la Real Academia de Doctores de España
Apertura del acto y bienvenida

Dr. D. Jaime Lamo de Espinosa
Académico de Número de la Sección de Ingeniería
Moderador

Sr. D. Marcelino Oreja Aguirre
Académico de Número de la Real Academia de Ciencias Morales y Políticas. Ex Ministro de Asuntos Exteriores

Sr. D. Raimundo Bassols Jacas
Embajador de España

Sr. D. Antonio Oyarzabal Marchesi
Embajador de España

Reconocimiento a cinco siglos de medicina española

Sesión organizada por la Real Academia de Doctores de España en colaboración con la Fundación Ramón Areces, sobre el tema: Reconocimiento a cinco siglos de medicina española.

Director: José A. Gutiérrez Fuentes

BIENVENIDA
- Raimundo Pérez-Hernández y Torra  
Fundación Ramón Areces. 
- Federico Mayor Zaragoza 
Fundación Ramón Areces. 
- Jesús Álvarez Fernández-Represa 
Real Academia de Doctores de España.  
- José A. Gutiérrez Fuentes 
Real Academia de Doctores de España. Fundación GADEA por la Ciencia
CONFERENCIA DE APERTURA
- Eugenio Prieto Pérez. Moderador
Real Academia de Doctores de España
- Fernando de Castro Soubriet
Neurobiología del Desarrollo. Instituto Cajal. CSIC
Quizá la más exitosa escuela de la Historia de la Biomedicina: Cajal y la Escuela Española de Neurohistología
SESIÓN PLENARIA 1. LA MEDICINA EN ESPAÑA DESDE SUS ORÍGENES HASTA FINALES DEL SIGLO XIX
- Jon Arrizabalaga. Moderador
Departamento de Ciencias Históricas: Historia de la Ciencia. Institución Milà i Fontanals-CSIC, Barcelona
- Fernando Salmón
Historia de la Ciencia. Universidad de Cantabria
La medicina europea medieval: Arnau de Vilanova (c.1240-1311)
- Carolin Schmitz
European University Institute (EUI), Florencia
La Regia Sociedad de Medicina y otras Ciencias de Sevilla en la “República de las Letras”: Juan Muñoz y Peralta (1668-1746)
- Rosa Ballester
Real Academia de Medicina de la Comunidad Valenciana. Universidad Miguel Hernández, Elche
La Real Expedición Filantrópica de la Vacuna (1803-1806): Javier Balmis, Josep Salvany e Isabel Zendal
- Jon Arrizabalaga
OFFEE Institución Milà i Fontanals-CSIC, Barcelona
La primera Cruz Roja Española y el “Comité de Ginebra”: Nicasio Landa (1830-1891)
SESIÓN PLENARIA 2. LA MEDICINA EN ESPAÑA DURANTE EL SIGLO XX
- Antonio González González. Moderador
Real Academia de Doctores de España
- José M. Sánchez Ron
Real Academia Española. Universidad Autónoma de Madrid
La medicina como impulsor del despertar científico español. Desde las investigaciones de Santiago Ramón y Cajal a la contribución asistencial e intelectual de Gregorio Marañón
- María Teresa Russo
Dipartimento di Scienze della Formazione. Università degli Studi Roma Tre
La tradición ibérica de los médicos filósofos y la medicina humanística en la España de la primera mitad del siglo XX
- Alfredo Menéndez Navarro
Historia de la Ciencia. Facultad de Medicina. Universidad de Granada
Saber experto, gobernanza y salud laboral en la España del siglo XX
- María Gema Quintero Lima
Facultad de Ciencias Sociales y Jurídicas. Universidad Carlos III de Madrid
Sanidad y Seguridad Social en España a lo largo del siglo XX. Luces y sombras.
SESIÓN PLENARIA 3. LA MEDICINA EN ESPAÑA DURANTE EL SIGLO XXI
- José A. Gutiérrez Fuentes. Moderador
Real Academia de Doctores de España. Fundación GADEA por la Ciencia
- María Inés López-Ibor Alcocer
Real Academia de Doctores de España. Universidad Complutense de Madrid
Manteniendo o reemplazando los valores en Medicina
- Jesús Millán Núñez-Cortés
Universidad Complutense de Madrid. Hospital General Universitario Gregorio Marañón. Cátedra de Educación Médica FL-UCM
La Educación Médica en España: ¿hacia dónde nos dirigimos?
MESA REDONDA. LA SANIDAD Y EL ESTADO DEL BIENESTAR ANTE LA NUEVA REALIDAD ECONÓMICA Y SOCIAL ESPAÑOLA
- Javier Díaz Giménez
Macroeconomía, Política fiscal y Sistemas de pensiones IESE, Madrid
Fertilidad, Longevidad y Pensiones
- Luis Moreno Fernández
Instituto de Políticas y Bienes Públicos. Centro de Ciencias Humanas y Sociales (CSIC), Madrid
El Estado del Bienestar en España y su pilar de la sanidad
- Miguel Ángel Quintanilla Fisac
Departamento de Filosofía, Lógica y Estética. Universidad de Salamanca
Filosofía de las ciencias y los servicios de salud: una perspectiva sistémica
CONFERENCIA DE CLAUSURA
- Jesús Álvarez Fernández-Represa. Moderador
Presidente de la Real Academia de Doctores de España
- Fernando Baquero Mochales
Instituto Ramón y Cajal de Investigación Sanitaria (IRYCIS). Hospital Universitario Ramón y Cajal, Madrid
La Ciencia Post-Experimental en el Siglo XXI
CLAUSURA / DESPEDIDA
- Raimundo Pérez-Hernández y Torra  
Fundación Ramón Areces. 
- Federico Mayor Zaragoza 
Fundación Ramón Areces. 
- Jesús Álvarez Fernández-Represa 
Real Academia de Doctores de España.  
- José A. Gutiérrez Fuentes 
Real Academia de Doctores de España. Fundación GADEA por la Ciencia

Mesas redondas

Nuevas tecnologías en producción y reproducción animal

Mesa redonda organizada por la Sección de Veterinaria.

Intervienen:

Dr. D. Emilio Espinosa Velázquez
Académico de Número y Presidente de la Sección de Veterinaria de la RADE
Biotecnología de la reproducción y control reproductivo para mejorar la productividad

Dr. D. Julián Garde López Brea
Académico de Número de la Sección de Veterinaria
Retos de la tecnología seminal en el siglo XXI

Ciclos de conferencias

El agua en el capital natural

Ciclo de conferencias Agua organizado por la Sección de Ciencias Experimentales. I sesión

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la RADE
Apertura del acto y bienvenida

Dr. D. Manuel Ramón Llamas Madurga
Académico de Número de la Sección de Ciencias Experimentales
Las actividades de la RADE sobre el agua

Sr. D. Carlos del Álamo Jiménez
Presidente del Instituto de la Ingeniería de España
El nuevo concepto de Capital Natural y su aplicación para España

Sr. D. Pedro Martínez Santos
Profesor titular. Universidad Complutense de Madrid
El acuífero detrítico de Madrid. El patrimonio histórico. Los viajes del agua

Sr. D. Juan Atienza Serna
Presidente de la Asociación de Usuarios del Acuífero de Madrid
El suministro de agua urbana e industria en el acuífero detrítico de Madrid

Sr. D. Celestino García de la Noceda
Ingeniero de Minas. Instituto Geológico y Minero de España
El acuífero de Madrid y la bomba de calor

El agua en el mundo de hoy

Ciclo de conferencias Agua organizado por la Sección de Ciencias Experimentales. II sesión

Intervienen:

Dr. D. Jesús Álvarez-Fernández Represa
Presidente de la Real Academia de Doctores de España
Apertura del acto y bienvenida

Dr. D. Manuel Ramón Llamas Madurga
Académico de Número de la Sección de Ciencias Experimentales
Presentación

Dr. D. Alberto Garrido Pérez
Vicerrector de la Universidad Politécnica de Madrid
Agua virtual y huella hídrica

Dr. D. Jaime Lamo de Espinosa
Académico de Número de la Sección de Ingeniería
Seguridad alimentaria y usos del agua

Excma. Sra. Dª. Isabel García Tejerina
Ministra de Agricultura, Pesca, Alimentación y Medio Ambiente

La salud de nuestros ríos

Ciclo de conferencias Agua organizado por la Sección de Ciencias Experimentales. III sesión

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la Real Academia de Doctores de España
Apertura del acto y bienvenida

Dr. D. Manuel Ramón Llamas Madurga
Académico de Número de la Sección de Ciencias Experimentales
Presentación

Sr. D. Ángel Cajigas Delgado
Subdirector General Adjunto de Infraestructuras y Tecnología. Ministerio de Agricultura, Alimentación y Medio Ambiente
La contaminación de los Ríos españoles. Indicadores de calidad

Dr. D. Arturo Romero Salvador 
Académico de Número de la Seccíón de Ciencias Experimentales
Reducción del aporte de contaminantes a los ríos. Evolución de la tecnología

Sr. D. Miguel Ángel Ródenas Cañada
Presidente de la Confederación Hidrográfica del Segura
Regeneración de los ríos contaminados. El ejemplo del río Segura

Reflexiones sobre la educación en España

Ciclo de conferencias Educación organizado por la sección de Humanidades. I sesión

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la Real Academia de Doctores de España
Apertura

Dr. D. Víctor Santiuste Bermejo
Académico de Número de la sección de Humanidades de la RADE. Catedrático de la Universidad Complutense de Madrid
Moderador

Dr. D. Francisco López Rupérez
Expresidente del Consejo Escolar de Estado. Director de la Cátedra de Políticas Educativas de la Universidad Camilo José Cela
Resultados del sistema educativo y calidad de su gobernanza

Dr. D. Fernando Arroyo Ilera
Académico de Número de la sección de Humanidades de la RADE. Catedrático de la Universidad Autónoma de Madrid
Modelos, ideologías y reformas educativas

Dr. D. José Antonio Ibáñez-Martín Mellado
Catedrático de la Universidad Complutense de Madrid. Vice-rector de la Universidad Internacional de la Rioja
Educación escolar, adoctrinamiento y políticas fáusticas

Foros de encuentro

¿Qué esperan los ciudadanos de los Poderes Públicos?

Foro de encuentro sobre el tema ¿Qué esperan los ciudadanos de los Poderes Públicos?

Intervienen:

Dr. D. Joaquín Abellán
Catedrático de Ciencia Política. Universidad Complutense de Madrid

Dr. D. Fernando Vallespín Oña
Catedrático de Ciencia Política y de la Administración. Universidad Autónoma de Madrid

Dr. D. Francisco J. Llera Ramo
Catedrático de Ciencia Políticas. Universidad del País Vasco

Dr. D. Antonio Jiménez-Blanco
Académico de Número de la Sección de Derecho
Moderador

Presentaciones de libros

Del studium generale de Alcalá a la Real Academia de Doctores de España. 1293-2017 Simbiosis Universidades Cisnerianas y Academia de Doctores

Intervienen:

Presidente de la RADE

Presidente de la Fundación Juan-Miguel Villar Mir

Rector Magnífico de la Universidad Complutense de Madrid

Rector Magnífico de la Universidad de Alcalá de Henares

Secretario General de la ONCE

Dr. D. Eugenio Ull i Pont
Autor del libro

Sesiones in Memoriam

Dr. D. Darío Maravall Casesnoves

Sesión necrológica en memoria del Dr. D. Darío Maravall Casesnoves, Académico Supernumerario de la Real Academia de Doctores de España, organizada por la Sección de Ingeniería 

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la RADE
Apertura del acto y bienvenida

Dr. D. Saturnino de la Plaza Pérez
Académico de Número de la Sección de Ingeniería. Vicepresidente de la RADE

Dr. D. Jaime Lamo de Espinosa
Académico de Número de la Sección de Ingeniería

Dr. D. Darío Maravall Gómez-Allende
Ingeniero de Telecomunicación. Hijo

Dr. D. Arturo Romero Salvador
Académico de Número de la Sección de Ciencias Experimentales.

Dr. D. Antonio Lamela Martínez

Sesión necrológica en memoria del Dr. D. Antonio Lamela Martínez, Académico de Número de la Real Academia de Doctores de España, organizada por la Sección de Arquitectura y Bellas Artes 

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la RADE
Apertura del acto y bienvenida

Dr. D. Juan Gómez y González de la Buelga
Académico Supernumerario. Arquitecto

Dr. D. Manuel Ramón Llamas Madurga
Académico de Número de la Sección de Ciencias Experimentales. Geólogo

Dr. D. Luis Antonio Fernández-Galiano Ruiz
Académico de Número de la Sección de Arquitectura y Bellas Artes. Arquitecto

Dr. D. Luis Irastorza
Ingeniero de Caminos, Canales y Puertos

Sr. D. Rafael de La-Hoz Castanys
Arquitecto

Dr. D. Manuel del Río Martínez

Sesión necrológica en memoria del Dr. D. Manuel del Río Martínez, Académico de Número de la Real Academia de Doctores de España, organizada por la Sección de Arquitectura y Bellas Artes 

Intervienen:

Dr. D. Jesús Álvarez Fernández Represa
Presidente de la RADE
Apertura del acto y bienvenida

Sr. D. Ignacio Ferrero Ruiz de la Prada
Doctor Arquitecto

Sr. D. Manuel del Río Fernández-Villarjubín
Arquitecto

Sr. D. Juan Hernández
Arquitecto

Dra. Dª. Rosa María Garcerán Piqueras
Académica de Número y Presidenta de la Sección de Arquitectura y Bellas Artes

Dr. D. Fernando Benzo Mestre

Sesión necrológica en memoria del Dr. D. Fernando Benzo Mestre, Académico de Número de la Real Academia de Doctores de España, organizada por la Sección de Derecho 

Intervienen:

Dr. D. Jesús Álvarez Fernández-Represa
Presidente de la RADE
Apertura del acto y bienvenida

Sr. D. Fernando Benzo Sainz
Secretario de Estado de Cultura

Sr. D. Fernando Suárez González
Real Academia de Ciencias Morales y Políticas

Sr. D. Luis María Cazorla Prieto
Real Academia de Jurisprudencia y Legislación

Dr. D. Antonio Jiménez-Blanco Carrillo de Albornoz
Académico de Número de la sección de Derecho

Sr. D. Javier Benzo Perea
Abogado

Toma de posesión como Académicos Correspondientes

Dr. D. Luis Vázquez Martínez

El Dr. D. Luis Vázquez Martínez tomó posesión de su plaza de Académico Correspondiente perteneciente a la Sección de Ciencias Experimentales. El discurso de ingreso versó sobre: Los muchos caminos hacia Marte.
Fue presentado en nombre de la Corporación por el Dr. D. Arturo Romero Salvador, Académico de Número de la Sección.

Dr. D. Francisco Valero Rodríguez

El Dr. D. Francisco Valero Rodríguez tomó posesión de su plaza de Académico Correspondiente perteneciente a la Sección de Ciencias Experimentales. El discurso de ingreso versó sobre: Evolución científica de la meteorología.
Fue presentado en nombre de la Corporación por el Dr. D. Arturo Romero Salvador, Académico de Número de la Sección.

Dr. D. Víctor Santiuste Bermejo

El Dr. D. Víctor Santiuste Bermejo tomó posesión de su plaza de Académico Correspondiente perteneciente a la Sección de Humanidades. El discurso de ingreso versó sobre: Biología, lenguaje y educación. Reflexiones críticas sobre una nueva pedagogía científica.
Fue presentado en nombre de la Corporación por el Dr. D. Emilio de Diego García, Académico de Número de la Sección y Secretario General de la RADE.

Dr. D. Fernando Gilsanz Rodríguez

El Dr. D. Fernando Gilsanz Rodríguez tomó posesión de su plaza de Académico Correspondiente perteneciente a la Sección de Medicina. El discurso de ingreso versó sobre: Auto-experimentación en anestesiología.
Fue presentado en nombre de la Corporación por el Dr. D. José Antonio Rodríguez Montes, Académico de Número de la Sección y Bibliotecario de la RADE.

Dr. D. Manuel Nofuentes Caballero

El Dr. D. Manuel Nofuentes Caballero tomó posesión de su plaza de Académico Correspondiente perteneciente a la Sección de Ingeniería. El discurso de ingreso versó sobre: El mercado global del gas natural licuado.
Fue presentado en nombre de la Corporación por el Dr. D. José Luis Díaz Fernández, Académico de Número de la Sección.

Dr. D. José Manuel Ramírez Sebastián

El Dr. D. José Manuel Ramírez Sebastián tomó posesión de su plaza de Académico Correspondiente perteneciente a la Sección de Medicina. El discurso de ingreso versó sobre: El ojo, una ventana al cerebro.
Fue presentado en nombre de la Corporación por el Dr. D. Antonio González González, Académico de Número y Presidente de la Sección.

Dr. D. Félix María Arocena Solano

El Dr. D. Félix María Arocena Solano tomó posesión de su plaza de Académico Correspondiente perteneciente a la Sección de Teología. El discurso de ingreso versó sobre: La constitución del rito hispano y la aportación de sus textos a la teología de la liturgia.
Fue presentado en nombre de la Corporación por la Dra. Dª. Blanca Castilla de Cortázar, Académica de Número de la Sección.

Dr. D. Ángel Agis Torres

El Dr. D. Ángel Agis Torres tomó posesión de su plaza de Académico Correspondiente perteneciente a la Sección de Farmacia. El discurso de ingreso versó sobre: Los relojes de la vida ¿tienen marcha atrás?
Fue presentado en nombre de la Corporación por el Dr. D. Antonio Luis Doadrio Villarejo, Académico de Número y Presidente de la Sección de Farmacia.