Páginas vistas en total

martes, 25 de febrero de 2014

Christiaan Huygens



Christiaan Huygens (La Haya, 14 de abril de 1629 - 8 de julio de 1695) fue un astrónomo, físico y matemático holandés. 

Nació en el seno de una importante familia holandesa. Su padre, el diplomático Constantijn Huygens, le propoprcionó una excelente educación y lo introdujo en los círculos intelectuales de su época. 

Estudió mecánica y geometría con preceptores privados hasta los 16 años. Aprendió geometría, como hacer modelos mecánicos y habilidades sociales como tocar el laúd. En esta primera etapa estuvo muy influido por el matemático francés René Descartes, visitante habitual de la casa de Constantijn durante su estancia en Holanda. Su formación universitaria transcurrió entre 1645 y 1647 en la Universidad de Leiden  y entre 1647 y 1649 en el Colegio de Orange de Breda. En ambos centros estudió derecho y matemáticas, destacándose en la segunda. 

Christiaan Huygens dedicó sus siguientes años a viajar como embajador de Holanda, visitando entre otros lugares, Copenhague, Roma y París. En 1656 creó el primer reloj de péndulo. En 1660 volvió a París para instalarse definitivamente. Allí mantuvo frecuentes reuniones con importantes científicos franceses, entre otros, Blaise Pascal. Sin embargo, pronto abandonó dicha ciudad para marchar a Londres. Ingresó en la recién formada Royal Society, donde pudo comprobar los asombrosos avances realizados por los científicos ingleses. Allí pudo mostrar sus superiores telescopios y conoció a científicos como Robert Hook o Robert Boyle, entre otros. 

En 1666 aceptó la invitación de Colbert, ministro de Luis XIV para regresar a París e incorporarse a la Academia de Ciencias Francesas. Dada su experiencia en la Royal Society pudo llegar a liderar una nueva academia e influir notablemente en otros científicos del momento, como su amigo y pupilo Leibnitz. Fueron años muy activos pero se enturbiaron por sus problemas de salud y las guerras del Rey Sol contra Holanda. Finalmente abandonó Francia en 1681. 




Tras una estancia en Holanda Huygens decidió volver a Inglaterra en 1689. Allí volvió a relacionarse con la Royal Society y conoció a Isaak Newton, con el que mantuvo frecuentes discusiones científicas, ya que siempre criticó la teoría corpuscular de la luz y la ley de la gravitación de Newton. 

Christiaan Huygens fue uno de los pioneros en el estudio de la probabilidad, tema sobre el que publicó un libro, Sobre los Cálculos en los Juegos de Azar, en 1656. En él introdujo algunos concepros importantes en este campo, como la esperanza matemática y resolvía algunos de los problemas propuestos por Pascal, Fermet y De Méré. Además resolvió numerosos problemas geométricos, como la determinación de la curvatura de la cicloide. 

Los trabajos de Huygens en física se centraron principalmente en dos campos, la mecánica y la óptica. En el campo de la macánica publicó su libro Horologum oscillatorum (1675): en él se halla la expresión exacta de la fuerza centrífuga en un movimiento circular, la teoría del centro de oscilación, el principio de la conservación de las fuerzas vivas (antecedente del principio de conservación de la energía), centrándose especialmente en las coliciones entre partículas y el funcionamiento del péndulo simple y del reversible. 

En el campo de la óptica elaboró la teoría ondulatoria de la luz, partiendo del concepto de que cada punto luminoso de un frente de ondas puede considerarse una nueva fuente de ondas. A partir de esta teoría explicó en su obra Traité de la lumière, la reflexión, refracción y doble refacción de la luz. Dicha teoría quedó definitivamente demostrada por los experimentos de Thomas Young a principios del siglo XIX. 




Aficionado a la astronomía desde pequeño, pronto aprendió a tallar lentes (especialidad de Holanda desde la invención del telescopio en 1608) y junto a su hermano llegó a construir varios telescopios de gran calidad. Por el método de ensayo y error comprobaron que los objetivos de gran longitud focal proporcionaban mejores imágenes, de manera que se dedicó a construir instrumentos de focales cada vez mayores: elaboró un sistema especial para tallar este tipo de lentes, siendo ayudado por su amigo y filósofo Spinoza, pulidor de lentes de profesión. El éxito obtenido animó a Johannes Hevelius a fabricarse él mismo sus telescopios. 

En 1655 terminó un telescopio de gran calidad: apenas tenía 5 cm de diámetro aunque medía más de tres metros y medio de longitud, lo que le permitía obtener unos cincuenta aumentos: con este aparato vio que en torno al planeta Saturno existía un anillo (descubierto por Galileo con anterioridad) y la existencia de un satélite, Titán. Después de seguirlo durante varios meses para estar seguro de su período y órbita, dio a conocer la noticia en 1656.

Realizó importantes descubrimientos en el campo de la astronomía gracias a la invención de una nueva lente ocular para el telescopio. Estudió la Nebulosa de Orión descubriendo que en su interior existían estrellas diminutas. En 1658 diseñó un micrómetro para medir pequeñas distancias angulares, con el cual pudo determinar el tamaño aparente de los planetas o la separación de los satélites planetarios. 

Continuó con la fabricación y pulido de lentes con focales cada vez mayores: después de obtener objetivos de cinco, diez y veinte metros de focal (que probó en telescopios aéreos sin tubo) terminó un telescopio con una focal de 37 metros. Instalado sobre largos postes, sostenido por cuerdas para evitar el alabeo de la madera, con él llegó a obtener una imagen muy clara de los anillos de Saturno, llegando a divisar la sombra que arrojaban sobre el planeta. También estudió el cambio en la forma e iluminación de los anillos a medida que el planeta giraba alrededor del Sol. En honor suyo, la sonda de exploración de Titán (la mayor luna de Saturno) construida por la ESA lleva su nombre. 



domingo, 10 de noviembre de 2013

Cuestiones Físicas para pensar



Hubo un tiempo en que se tenían por absolutamente ciertos los datos que nuestros sentidos nos suministraban. El mundo exterior era idéntico al que veíamos. El Sol daba vueltas alrededor de la Tierra, el color rojo era rojo para todos y los vientos eran empujados por los Dioses de la tempestad. 

La diferente interpretación que cada hombre daba a ciertos fenómenos, la introducción de la superstición y la magia en la explicación de las cosas, llevó a la aparición de un deseo de conocer la realidad del mundo. Predominó el frío pensamiento porque se creyó que la razón eran infalible y el mundo se regía por unas leyes regulares, perfectas, posibles de determinar y dotadas de ciego fatalismo. Fue la era del pensamiento mecanicista y determinista que implicaba una gran fe en la posibilidad del conocimiento humano. 

La Relatividad vino a destruir gran parte de aquellas creencias demostrando que el mundo no respondía exactamente ni a la aportación de nuestros sentidos ni a una causalidad rígida y fatal. En la disputa sobre si la luz es onda o corpúsculo, la Ciencia actual viene a decir, con evidente posibilidad de asombro, que es ambas cosas al mismo tiempo.

El determinismo y la ciega causalidad han sido sustituidos, en gran parte, por la estadística y la probabilidad. Las leyes de los grandes números pesan profundamente en el ánimo del científico. 




Los fenómenos, que son los hechos que se producen a nuestro alrededor, se encierran en coordenadas de tiempo y espacio y se convierten en funciones matemáticas en las que uno o varias variables pueden expresarse por una fórmula y una línea. Mientras para los antiguos las cosas poseían un gran valor, hoy se tiende más a comprender el mundo físico como una multitud de sucesos, de acaeceres que conviene estudiar en su desarrollo y evolución. 

El ingenioso escritor francés del siglo XVII Cyrano de Bergerac cuenta en su Historia Cómica de los Estados e Imperios de la Luna (1652), entre otras cosas, un caso sorprendente que, según dice, le ocurrió a él mismo. Un día, cuando estaba haciendo experimentos de Física, fue elevado por el aire de forma incomprensible, incluidos sus frascos. Cuando al cabo de varias horas consiguió volver a tierra quedó sorprendido el ver que no estaba ni en Francia, ni en Europa...¡había llegado a Canadá!

No obstante el escritor francés considera que este vuelo transatlántico era completamente natural. Para explicarlo dice que mientras el viajero a la fuerza estuvo separado de la superficie terrestre, nuestro planeta siguió girando como siempre, hacia oriente y por eso, al descender, sentó sus pies no en Francia sino en América. 

¡Que medio de viajar más fácil y económico! No hay más que elevarse sobre la superficie de la Tierra y mantenerse en el aire unos cuantos minutos para que al descender nos encontremos en otro lugar, lejos hacia occidente. ¿Para que emprender pesados viajes por tierra o por mar, cuando podemos esperar colgados en el aire hasta que la misma Tierra nos ponga debajo al sitio que queremos ir?





Desgraciadamente este magnífico procedimiento es pura fantasía. En primer lugar, porque al elevarnos por el aire seguimos sin separarnos de la esfera terrestre, continuamos ligados a su capa gaseosa, es decir, estaremos como colgados de la atmósfera, la cual también toma parte en el movimiento de rotación de la Tierra alrededor de su eje. El aire (mejor dicho, su capa inferior y más densa) gira junto con la Tierra y arrastra consigo todo lo que en él se encuentre: las nubes, los aeroplanos, los pájaros en vuelo, etc

Si el aire no tomara parte en el movimiento de rotación de la Tierra sentiríamos siempre un viento tan fuerte, que los huracanes más terribles parecerían ligeras brisas comparadas con él (La velocidad del huracán es de 40 metros por segundo o 144 km por hora. Pero la Tierra, en una latitud como la de San Petersburgo, por ejemplo, nos arrastraría a través del aire con una velocidad de 240 metros por segundo, es decir, de 828 km por hora, y en la región ecuatorial, por ejemplo, esta velocidad sería de 465 m por segundo  o de 1674 km por hora)

Lo mismo da que estemos nosotros fijos en un sitio y que el aire pase junto a nosotros o que, por el contrario, sea el aire el que está quieto y nosotros los que nos movemos dentro de él, en ambos casos el viento sería igual de fuerte. Por ejemplo, un motociclista que avanza a 100 km por hora sentirá un viento fuerte de frente aunque el aire esté en calma. En segundo lugar, aunque pudiéramos remontarnos hasta las capas de la atmósfera o la Tierra no estuviera rodeada de aire, el procedimiento de viajar económicamente ideado por el satírico francés sería también irrealizable.

Efectivamente, al separarnos de la superficie de la Tierra en rotación continua seguiríamos, por inercia, moviéndonos con la misma velocidad que antes, es decir, con la misma velocidad a que se movería la Tierra debajo de nosotros. En estas condiciones, al volver a la Tierra nos encontraríamos en el mismo sitio de donde partimos, de igual manera que cuando damos saltos en un vagón de ferrocarril en marcha caemos en el mismo sitio. Es verdad que por inercia nos movemos en línea recta (tangenciamente a la superficie terrestre), mientras que la Tierra seguiría un arco debajo de nosotros, pero tratándose de lapsos de tiempo pequeños esa diferencia es nula. 




lunes, 2 de septiembre de 2013

Pasteurización



La pasteurizacón o pasterización es el proceso térmico realizado a líquidos (generalmente alimentos) con el objetivo de reducir los agentes patógenos que puedan contener: bacterias, protozoos, mohos, levaduras, etc. El proceso de calentamiento recibe el nombre de su descubridor, el científico-químico francés Louis Pasteur (1822 - 1895). La primera pasteurización fue realizada el 20 de abril de 1864 por el mismo Pasteur y su colega Claude Bernard.

Uno de los objetivos del tratamiento térmico es una esterilización parcial de los alimentos líquidos, alterando lo menos posible su estructura física, sus componentes químicos y sus propiedades organolépticas. Tras la operación de pasteurización, los productos tratados se enfrían rápidamente y se sellan herméticamente con fines de seguridad alimentaria, por esa razón es básico el conocimiento del mecanismo de la transferencia de calor en los alimentos. A diferencia de la esterilización, la pasteurización no destruye totalmente las esporas de los microorganismos ni elimina todas las células de microorganismos termofílicos. 

Louis Pasteur mejoró la calidad de vida al hacer posible que productos alimenticios básicos, como la leche, se pudieran transportar largas distancias sin ser afectados por la descomposición. En la pasteurización, el motivo primordial no es eliminación completa de los agentes patógenos, sino la disminución sustancial de sus poblaciones, reduciéndolas a niveles que no causen intoxicaciones alimentarias a los humanos. En la actualidad, la pasteurización es objeto de cada vez más polémicas por parte de ciertas agrupaciones de consumidores en todo el mundo, debido a las cuestiones existentes sobre la destrucción de vitaminas y alteración de las propiedades organolépticas (sabor y calidad) de los productos alimenticios tratados con este procedimiento.

Los primeros intentos de esterilizar alimentos en envases cerrados se han atribuido históricamente al inventor francés Nicolas Appert en sus investigaciones realizadas en el siglo XVIII. No obstante, algunas investigaciones demuestran que con anterioridad ya se había intentado esterilizar alimentos en recipientes sellados. Hacia finales del siglo XIX químicos alemanes trasladaron ese procedimiento a la leche cruda y ya entonces (antes de Pasteur) se comenzó a sospechar que los tratamientos térmicos resultaban eficaces para destruir las bacterias presentes en la leche. De esta manera se dio origen a un importante método de conservación y también a una medida de higiene fundamental para cuidar la salud de los consumidores y conservar la calidad de los alimentos. 





Algunos de los contemporáneos de Pasteur, incluido el químico alemán Justus von Liebig insistían en que la fermentación era un proceso enteramente químico y que no requería en absoluto de la intervención de ningún organismo vivo. En el año 1864, a instancias del emperador Napoleón III, Pasteur investigó la causa por la que el vino y la cerveza se agriaban con el paso del tiempo, causando grandes pérdidas económicas a las empresas francesas debido a lo perecedero de estas mercancías. Pasteue regresó al pueblo de su infancia ARbois, con el motivo de resolver el problema definitivamente. Con ayuda de un microscopio descubrió que, en realidad, intervenían dos tipos de organismos, (levadura y bacteria), clave en el proceso de fermentación. Uno producía alcohol y el otro ácito acético que agriaba el vino produciendo el vinagre. Con posterioridad Charles North aplicó con éxito el mismo método de Pasteur a la leche en 1907.

Pasteur utilizó un nuevo método para eliminar los microorganismos que pudieran degradar al vino o a la cerveza: Después de almacenar el líquido en cubas bien selladas se elevaba su temperatura hasta los 44ºC durante un breve período de tiempo. Comprobó experimentalmente que las poblaciones de bacterias del género Acetobacter se reducían en extremo hasta quedar casi esterilizado el alimento. A pesar del horror inicial de la industria de calentar el vino, un experimento controlado con lotes de vino calentado y sin calentar demostró de forma contundente la efectividad del procedimiento. Pasteur dio el primer paso en el que sería este nuevo método, denominado posteriormente pasteurización en su honor, y lo fue aplicando a otros alimentos líquidos como la leche. Este proceso se aplica hoy en día como una norma de higiene en muchos procesos básicos de la industria alimentaria y garantiza la seguridad de muchos productos alimenticios de manera eficaz por todo el mundo.

La historia de la esterilización de los alimentos fue revisada por Harold Burton en 1988. Los esterilizadores fueron patentados y construidos para calentar leche a temperaturas que van desde los 130 ºC hasta los 140ºC antes del siglo XIX, curiosamente antes de que sus beneficios fueran entendidos completamente. La leche esterilizada se desarrolló industrialmente en el año 1921, y el proceso de inyección de vapor fue desarrollado en 1927por G. Grinrod en Estados Unidos. Sin embargo, las iniciativas más relevantes que dieron lugar a la comercialización del método UHT se empezaron a desarrollar a fines del decenio de 1940, debido a la técnica desarrollada en los esterilizadores de tubos concéntricos y de vapor de uperización en los sistemas de producción de leche. Los esfuerzos de aquella época eran muy grandes en la industria para lograr envasar asépticamente la leche hasta que finalmente se logró con éxito en 1961.

La pasteurización es un proceso térmico realizado a los alimentos: los procesos térmicos se pueden realizar con la intención de disminuir las poblaciones patógenas de microorganismos o para desactivar las enzimas que modifican los sabores de ciertos alimentos. No obstante, en la pasteurización se emplean generalmente temperaturas por debajo del punto de ebullición, ya que en la mayoría de los casos las temperaturas superiores a este valor afectan ciertas características físicas y químicas del producto alimenticio. El proceso de calentamiento de la pasteurización, si se hace a bajas temperaturas, tiene además la función de detener los procesos enzimáticos. Hoy en día la pasteurización se realiza a los alimentos en un proceso industrial continuo aplicado a alimentos viscosos, con la intención de utilizar la energía de manera eficiente y disminuir costes de producción.




Existen tres tipos de procesos bien diferenciados. 


  • Pasteurización lenta (VAT)
  • Pasteurización a altas temperaturas durante un breve período (HTST)
  • Proceso a altas temperaturas (UHT)

Desde sus orígenes la pasteurización se ha asociado con la leche. El primer investigador que sugirió este proceso para el producto lácteo fue el químico agrícola alemán Franz von Soxhlet en 1886, siendo Charles North quien aplicó dicho método a la leche por primera vez en 1907. Los microorganismos activan sus poblaciones creciendo en forma óptima en el intervalo de temperatura de 25ºC a 37ª. Por esta razón, durante el proceso de manufacturación y envasado de la industria láctea se evita que la temperatura de la leche esté en ese intervalo después de la pasteurización. La leche de vaca pasteurizada por el método HTST y que ha sido correctamente refrigerada tiene un período de caducidad extendido que puede llegar a dos o tres semanas, mientras que la leche ultrapasteurizada puede tener extendida de entre dos a tres meses. Se puede llegar a períodos de conservación mayores cuando se combina la pasteurización UHT con manipulación adecuada y tecnologías de envases esterilizados. Al mismo tiempo que se reducen las colonias, se eliminan también los microorganismos más termosensibles. A pesar de aplicar la pasteurización la leche tratada sigue conteniendo una cierta actividad microbiana, por regla general bacterias lácteas y es necesario la refrigeración.

La pasteurización de la leche ha sido objeto poco a poco de una polémica creciente. Por una parte se ha descubierto que algunos organismos patógenos han desarrollado una resistencia a la disminución de población con la temperatura, consiguiendo sobrevivir a la pasteurización en cantidades significativas. Los investigadores han desarrollado diagnósticos más sensibles, como la reacción en cadena de la polimerasa que han permitido analizar la supervivencia de las cepas de diferentes microorganismos a la pasteurización de la leche. Se ha detectado que la pasteurización en ciertas condiciones destruye la vitamina A y la vitamina B.

Un método actual es la pasteurización flash o instantánea que utiliza menores tiempos de exposición a altas temperaturas y parece ser un método adecuado para conservar las propiedades organolépticas de los alimentos, pues preserva mejor el sabor y la textura de los mismos. La pasteurización fría es una denominación usada a veces como sinónimo de radiación ionizante u otros significados  para reducir las poblaciones de bacterias en los alimentos. Se ha investigado la posibilidad de extender la pasteurización a alimentos no fluidos. Un avance en la pasteurización no intrusiva que soluciona muchos problemas de industria conservera es la denominada pasteurización electromagnética de alimentos líquidos que emplea microondas para activar los procesos térmicos. Este método ha demostrado su eficacia en la pasteurización del agua.

Existen estudios orientados al Tercer Mundo en los que es posible realizar lo que se denomina pasteurización solar. La idea está fundamentada en la cocción solar y en el hecho de que no es necesario llevar los líquidos a ebullición para lograr la pasteurización, logrando pasteurizar con este método con temperaturas sobre los 56ºC. Con esta medida se intenta prevenir la causa de enfermedades causada por la ingesta de aguas contaminadas El método es conocido como pasteurización del agua en el que se han desarrollado ciertos elementos capaces de indicar el estado de pasteurización del agua y su posibilidad de ingesta segura.



viernes, 2 de agosto de 2013

Teoría del Rozamiento



A la escala atómica, aun la superficie mas finamente pulida está lejos de ser plana. Por ejemplo, la figura de arriba muestra el perfil real, considerablemente amplificado, de una superficie de acero aparentemente muy bien pulida. Fácilmente podemos creer que al colocar dos cuerpos de este tipo en contacto, el área microscópica de contacto es mucho menor que área macroscópica aparente de contacto.

La superficie microscópica (es decir, la superficie real) de contacto es proporcional a la fuerza normal, porque las puntas de contacto se deforman plásticamente bajo los grandes esfuerzos que se desarrollan en estos puntos. Muchos puntos de contacto quedan soldados en frío entre sí. Este fenómeno, denominado adherencia superficial, se debe a que en los puntos de contacto, las moléculas, en las caras opuestas de la superficie, están tan cercanas unas a las otras que ejercen fuerzas intermoleculares intensas entre sí. 

Cuando un cuerpo (por ejemplo, un metal) se jala sobre la superficie de otro, la resistencia por rozamiento está relacionada con la ruptura de estos millares de pequeñas soldaduras, que continuamente se vuelven a formar conforme se presentan nuevas oportunidades de contacto. Experimentos con rastreadores radioactivos han permitido averiguar que, en el proceso de ruptura, pequeños fragmentos de una superficie metálica pueden ser arrancados y quedar adheridos a la otra superficie. Si la rapidez relativa del movimiento de las dos superficies se suficientemente grande, puede haber una fusión local en ciertas zonas de contacto, aun cuando la superficie en conjunto pueda sentirse solo ligeramente caliente. 

El coeficiente de rozamiento depende de muchas variables, tales como la naturaleza de los materiales, el acabado superficial, películas superficiales, temperatura y grado de contaminación. Por ejemplo, si en un recipiente al alto vacío se colocan dos superficies metálicas que se han limpiado cuidadosamente y como consecuencia del vacío no se pueden formar películas de oxígeno en las superficies, el coeficiente de rozamiento se eleva a valores enormes y las superficies quedan firmemente soldadas entre sí. Al dejar penetrar una pequeña cantidad de aire al recipiente de modo que puedan formarse películas de oxígeno en las superficies opuestas, el coeficiente de rozamiento se reduce a su nivel normal. 




Con estas complicaciones no es sorprendente que no haya una teoría exacta del rozamiento en seco y que las leyes del mismo sean impíricas. Sin embargo, la teoría de la adherencia superficial en el rozamiento entre metales conduce a comprender fácilmente las dos leyes mencionadas anteriormente. Así se determina que el área microscópica de contacto que determina la fuerza de rozamiento es proporcional a la fuerza normal, y, por consiguiente, la fuerza de rozamiento es proporcional a la fuerza normal. El hecho de que la fuerza de rozamiento sea independiente del área aparente de contacto significa, por ejemplo, que la fuerza que se requiere para arrastrar un ladrillo de metal sobre una mesa metálica es la misma, cualquiera que sea la cara del ladrillo que esté en contacto con la mesa. La fuerza de rozamiento que se opone a que un cuerpo ruede sobre otro es mucho menor que la fuerza necesaria para el resbalamiemto y esta es la ventaja de la rueda sobre el trineo. 

La resistencia al rozamiento por deslizamiento en superficies secas se puede reducir considerablemente mediante la lubricación. En el mural de una gruta en Egipto fechada 1900 años antes de Cristo se ve una gran estatua de piedra que se va deslizando en una rastra, mientras un hombre, enfrente de la rastra, va echando aceite lubricante en su camino. Una técnica mucho más efectiva es introducir una capa de gas entre las superficies que resbalan, el disco de hielo seco y la chumacera sobre soportes de gas, son algunos ejemplos. 

El rozamiento toma parte muy importante incluso allí donde nosotros ni lo sospechamos. Si el rozamiento desapareciera repentinamente, muchos de los fenómenos ordinarios se desarrollarían de forma completamente diferente. 

El rozamiento da estabilidad. Los albañiles nivelan el suelo de manera que las mesas y las sillas se queden allí donde las ponemos. Si sobre una mesa colocamos platos, vasos, etc, podemos estar seguros de que no se moverán de su sitio, a no ser de que esto ocurra en un barco cuando haya oleaje. 




Imaginemos por un momento que el rozamiento se pueda eliminar por completo. En estas condiciones los cuerpos, tengan las dimensiones de una peña o de un pequeño granito de arena, no podrían apoyarse unos en otros: todos empezarán a resbalar o rodar y así continuarán hasta que se encuentren en un mismo nivel. Si no hubiera rozamiento, la Tierra sería una esfera sin rugosidades, lo mismo que una gota de agua.

A esto podríamos añadir que si no existiera el rozamiento los clavos y tornillos se saldrían de las paredes, no podríamos sujetar nada con las manos, los torbellinos no cesarían nunca, los sonidos no dejarían de oírse jamás y producirían ecos sin fin, que se reflejarían en las paredes sin debilitarse. Veamos algunas noticias periodísticas respecto a ello, de diciembre de 1927:


  • Londres, 21. Debido a la fuerte helada, el tráfico urbano y tranviario se ha hecho muy difícil en Londres. Cerca de 1400 personas han ingresado en los hospitales con fracturas de brazos y piernas
  • París, 21. Las heladas han ocasionado en París y sus alrededores numerosos accidentes....


Las heladas nos dan siempre buenas lecciones de la gran importancia que tiene el rozamiento. En cuanto nos sorprenden en la calle nos sentimos incapaces de dar un paso sin temor a caernos. Y, sin embargo, el hecho de que el hielo ofrezca poco rozamiento puede ser útil para fines técnicos. Un ejemplo de ello son los trineos ordinarios. Otra demostración aun más convincente son los llamados caminos de hielo, que se hacían para transportar los leños desde el lugar de la tala hasta el ferrocarril o hasta el punto de lanzamiento a un río para su transporte por flotación. Por estos caminos, que tienen una especie de raílers lisos helados, un par de caballos puede arrastrar un trineo cargado con 70 toneladas de troncos. 



sábado, 6 de julio de 2013

Maravillas numéricas



En el mundo de los números, como también sucede en el mundo de los seres vivos, se encuentran auténticas maravillas, ejemplares únicos, que poseen propiedades sorprendentes. A partir de varios números extraordinarios se pudo conformar un museo de rarezas numéricas. En sus vitrinas hallaremos un lugar no solamente dedicado a los gigantes numéricos, sino también otro para los números de dimensiones discretas que, en compensación, se distinguen de la serie de los otros por ciertas propiedades no habituales. Algunos de ellos llaman la atención por su apariencia, otros en tanto, dejan ver sus notables particularidades solamente a través de un conocimiento más profundo. Los llevaré de recorrido por algunos de ellos:

El número 12: ¿Que tan especial es? Es el número de los meses del año y de la docena. Pero en esencial ¿Que hay de particular en la docena? Por poco es conocido que el número 12 es el antiguo y derrotado rival del número 10 en la lucha del puesto honorífico de base del sistema de numeración. Un pueblo de gran cultura del Medio Oriente, los babilonios, y sus predecesores sumerios, realizaban los cálculos en el sistema duodecimal de numeración. Tenemos gran inclinación por las docenas y las gruesas, nuestro día se divide en 2 docenas de horas, nuestras horas se dividen en 5 docenas de minutos, nuestro minuto se divide en 5 docenas de segundos, el círculo se divide en 30 docenas de grados, y finalmente el pie se divide en 12 pulgadas, lo que constituye una prueba fehaciente de la gran influencia de dicho número en nuestra vida. 

Debido a la estrecha relación entre la decena y los diez dedos, nuestras manos han sido y siguen siendo calculadoras naturales. Pero si no fuera por eso convendría dar preferencia al 12 antes que al 10. Es mucho más conveniente realizar los cálculos en el sistema duodecimal que en el decimal. Esto se debe a que el número 10 solo es divisible por 2 y por 5, mientras que el 12 es divisible entre 2, 3, 4 y 6. Salta a la vista las ventajas del sistema duodecimal si se considera que en este sistema todo número terminado en cero es múltiplo de 2, 3, 9 y 6. ¡Que cómodo resulta dividir un número cuando 1/2, 1/3, 1/4 y 7/6  de este son números enteros!

Todo número duodecimal que termine en dos ceros es divisible por 144, así como por todos sus multiplicadores, es decir entre 2,3,4,6,9,12,16,18,24,36,48,72 y 144, catorce divisores en lugar de ocho con los que cuentan los números decimales que terminan en dos ceros: 2,4,5,10,20,25,50 y 100.




Por otra parte sería un gran error pensar que la divisibilidad de un número puede depender del sistema de numeración en que esté representado. Si unas nueces contenidas en un saco pueden separarse en 5 montones iguales esta propiedad no se modifica dependiendo del sistema de numeración en el que se expresen o de si lo anotamos en un ábaco, o lo escribimos en letras, o por cualquier otro método. Si el número escrito en el sistema duodecimal es divisible entre 6 o entre 72, al ser expresado en otro sistema de numeración (el decimal en este caso) deberá tener los mismos divisores. La diferencia consiste únicamente en que, en el sistema duodecimal la divisibilidad entre 6 o entre 72 se verifica con mayor facilidad. 

El número 365 Es notable, ante todo, porque denomina los números de días del año. Además, al dividirlo por 7 da 1 de residuo, por ser un residuo tan insignificante, esta propiedad adquiere una gran importancia para nuestro calendario de siete días. Otra propiedad de este número, no relacionado con el calendario es: 365 = 10 x10+11x11+12x12, es decir, que el número 365 es igual a la suma de los cuadrados de tres números consecutivos empezando por el 10: 102+112+122=100+121+144=365. Además es igual a la suma de los cuadrados de los dos siguientes números, 13 y 14: 132+142=169+196= 365.

El número 999 En la siguiente vitrina está expuesto el mayor de todos los números de tres cifras, el 999. Dicho número es mucho más extraordinario que su imagen volcada el 666, el famoso número de la bestia que ha generado un temor absurdo entre algunas personas supersticiosas que, acorde a las propiedades aritméticas, nada hay que lo distinga de los demás números. 

Una propiedad interesante del 999 se manifiesta en su multiplicación por cualquier otro número de tres cifras. De esta forma se obtiene un producto de seis cifras: sus tres primeras cifras constituyen el número a multiplicar por 999, reducido en una unidad, y las tres cifras restantes, inclusive la última son el complemento al 9 de las tres primeras. Veamos, por ejemplo el 573. Se reduce 573 en una unidad, quedando el 572. Se complementa cada cifra a 9:9 - 5= 4;9 - 7=2; 9-2 =7, quedan 427. A continuación se realiza la operación siguiente: 573x999=572427.






Conociendo esta particularidad podemos multiplicar instantáneamente cualquier número de tres cifras por 999, por ejemplo, 967x999=966033 o bien  981x999=980019. Haciendo uso de estas propiedades se puede organizar ante los profanos, pequeñas demostraciones de multiplicación y división instantánea. 

El número 1001, o número de Scheherazada El que sigue es el 1001, el célebre número de Scheherazada. Pocos sospechan probablemente que en el nombre mismo de una colección de cuentos encantados árabes se esconde una maravilla que hubiese podido exaltar la imaginación del sultán del cuento en grado no menor al de otras maravillas del Oriente si se hubiese interesado por las maravillas aritméticas.

¿Que tan notable es el número 1001? En su aspecto parece un número corriente. No pertenece al grupo de los números primos. Es divisible entre 7,11 y 13, los cuales son números primos consecutivos, cuyo producto resulta ser el mencionado número. Lo que lo hace notable es que al multiplicar un número de tres cifras por 1001 se obtiene un resultado formado por los dígintos del número multiplicado escrito dos veces, por ejemplo: 873x1001=873873 y 207x1001=207207.

Un número de seis unidades (111111) En la siguiente vitrina vemos una nueva maravilla del museo de curiosidades aritméticas, un número formado por seis unidades. Por las propiedades ya conocidas del número 1001, nos damos cuenta que 111111=111x1001




Pero 111= 3x37 y 1001= 7x11x13. De aquí se deduce que nuestro nuevo fenómeno numérico formado solamente por unidades, representa el producto de cinco multiplicadores primos. Combinando estos cinco multiplicadores en todas las formas posibles en dos grupos, obtenemos 15 pares de multiplicadores cuyos productos dan el mismo número, 111111.

3x (7x11x13x37)=3x37037= 111111
7x (3x11x13x37)= 7x15873= 111111
11x (3x7x13x37)=11x10101= 111111
13x (3x7x11x37)= 13x8547=111111
37x (3x7x11x13)=37x3003= 111111
(3x7)x(11x13x37)=21x5291= 111111
(3x11)x (7x13x37)=33x3367=111111

En este caso se puede poner a 15 personas el trabajo de multiplicación, y aunque cada uno multiplica un par de números diferentes, todos obtendrán el mismo resultado, o sea, 111111.

Partiendo de lo visto para el número 111111, el lector puede emplear en los trucos aritméticos, otro número que se componga de puras unidades, para ello debe descomponer dicho número en factores. Para fortuna de los aficionados, no todos los números resultantes son primos, ya que algunos son compuestos. De los primeros 17 números de este tipo solo son primos el 1 y el 11, todos los demás son compuestos. Finalmente, veamos como se descomponen en factores primos los diez primeros números de este sistema:

111 = 3 x 37
1.111 = 11 x 101
11.111 = 41 x 271
111.111 = 3 x 7 x 11 x 13 x 37
1.111.111 = 239 x 4649
11.111.111 = 11 x 73 x 101 x 137
111.111.111 = 9 x37 x 333667
1.111.111.111 = 11 x 41 x271 x 9091
111.11.111.111 = 21649 x 513239
111.111.111.111= 3 x7 x11 x 13 x 37 x 101 x 9901







sábado, 25 de mayo de 2013

Geometría: Tres problemas griegos



 Vale la pena hablar de los tres problemas que más preocuparon a los griegos desde que aquella ciencia empezó a construirse racionalmente. Nos referimos a la duplicación del cubo, la trisección del ángulo y la cuadratura del círculo, que los griegos no supieron resolver..., ni nosotros tampoco. La única ventaja que tenemos sobre ellos es la de saber por que son irresolubles. 

Como dichos problemas han trastornado a tantas cabezas de aficionados a la Matemática, y todavía existe una pintoresca fauna de locos inofensivos que creen haberlo resuelto, conviene precisar lo que quiere decir resolver un problema que es, precisamente lo que no saben los pobres ilusos que se caracterizan tanto por su ignorancia de la Matemática actual y de la historia de esta ciencia, como por la testaruda resistencia pasiva que oponen a todo intento para convencerles de su error. 

En primer lugar, decir que un problema es irresoluble no tiene sentido si no se indica con que medios o instrumentos, porque pudiera ocurrir que un problema que no tiene solución con ciertos recursos la tenga con otros, y en segundo lugar hay que distinguir entre la posibilidad y la resolublilidad de un problema: un problema es posible cuando admite una solución, aunque ésta no se pueda obtener por medio de construcciones elementales, de modo que la no- solubilidad es un concepto relativo porque, en sentido absoluto, todo problema posible es resoluble. 

La resolución de un problema consiste, esencialmente, en reducirlo a otro ya resuelto y, por tanto, se debe llegar a uno, considerado como fundamental, cuya solución se supone dada por uno o varios de los postulados que se refieren al uso legítimo de los instrumentos necesarios para ciertas construcciones geométricas que, para los griegos, eran la regla y el compás, únicos aparatos de su actividad matemática hasta el punto que no concedían carta de naturaleza científica a las figuras cuya construcción exige instrumentos distintos de aquellos. 

Con la regla se puede construir la recta que pasa por dos puntos, el punto común a dos rectas no paralelas y, en general, los problemas de primer grado, es decir, los que, expresados en lenguaje analítico, solo contienen la primera potencia de la incógnita, y si en el problema entran nociones métricas como las del paralelismo, longitudes de segmentos, valores angulares, etc, es irresoluble con la regla, con el compás es posible describir una circunferencia de centro y radios dados, o de centro dado que pase por un punto dado y determinar los puntos comunes a dos circunferencias secantes. Con la regla y el compás son resolubles muchísimos problemas, siempre que su expresión algebraica contengo solo raíces cuadradas. 




El problema de la duplicación del cubo tiene un origen fabuloso y constituye el tema de una carta de Eratóstenes al rey Ptolomeo: Cuéntase que uno de los antiguos poetas trágicos hacía aparecer en escena a Minos en el momento en el que se construía la tumba de Glauco y, al observar que solo medía cien pies de cada lado dijo: "Es un espacio muy pequeño para el sepulcro de un rey, duplicadla conservando su forma cúbica, duplicando cada lado". Es evidente que se equivocaba pues duplicando los lados de una figura plana se cuadruplica, mientras que una sólida se octuplica, y entonces se propuso a los geómetras la cuestión de duplicar una figura sólida dada conservando su forma, lo que se llamó la duplicación del cubo. Después de un largo período de incertidumbre, Hipócritas de Quío encontró que si entre dos rectas, una de las cuales es doble de la otra, se insertan dos medias  en proporción continua, el cubo quedará doblado, con lo que no hizo más que transformar la dificultad en otra no menor. Se cuenta también que más tarde, los de Delos, obligados por el oráculo de duplicar el altar, tropezaron con la misma dificultad, y entoncesenviaron embajadores a los geómetras que, con Platón, frecuentaban la Academia para que resolvieran la cuestión. Se ocuparon de ella diligentemente y se dice que, al proponerse insertar dos medias entre dos rectas, lo consiguieron Aquiles de Tarento con el semicírculo y Eudoxio mediante ciertas curvas. A estos siguieron otros que se esforzaron por hacer más perfectas las demostraciones, pero no pudieron efectuar la construcción y acomodarla a la práctica, excepto acaso Memeco, y con gran trabajo. 

Es probable que el problema de duplicar el cubo, también llamado problema de Delos, no fuese inspirado por la megalomanía de Minos ni por el oráculo de la sibila, sino por los mismos geómetras, puesto que sabiendo desde los tiempos de Pitágoras que el cuadrado construido sobre la diagonal de otro tiene doble área que éste, es decir: sabiendo duplicar el cuadrado mediante la construcción gráfica de la raíz cuadrada de 2 y guiados por su espíritu de generalización, parece natural que quisieran transportar al espacio el mismo problema, lo que los llevó al de extraer la raíz cúbica de 2, y ante la imposibilidad de construir con la regla y el compás la arista de un cubo de doble volumen que el otro, redujeron el problema a otro, siendo Hipócrates de Quío el primero en intentarlo. 

Es posible que tal procedimiento que parece inseparable de la investigación Matemática hubiese sido empleada antes de Hipócrates, pero fue éste quien descubrió el trato lógico común a muchos métodos para resolver problemas y demostrar teoremas. 

La trisección del ángulo fue el tercer problema que los griegos trataron de resolver. Consiste en dividir un ángulo en tres partes iguales, solo con el uso de la regla y el compás. Al parecer este problema pudo surgir a partir de lograrse la bisección del ángulo. 




Los griegos quisieron resolverlo con regla y compás, teniendo en cuenta que la regla que ellos utilizaban no era graduada. Después, gracias a la ayuda de Gauss se logró dar fin a la duda que rodea por tanto tiempo a este problema irresuelto. Gauss afirmó que esto era imposible aunque no dejó pruebas de la veracidad de tal afirmación. Fue en 1837, gracias a una demostración rigurosa por parte de Pierre Laurent Wantzel que se logra la verificación de lo inicialmente enunciado por Gauss. 

Se dieron muchas formas mediante las cuales los grandes matemáticos intentaron dar solución a este problema. Aunque en este momento se pueden consultar muchas formas según las cuales se puede dar solución al problema enunciado, tal vez muchos puedan mostrar una aproximación muy útil en algunos casos, pero éstos no verifican la realidad buscada en la demostración. 

La trisección del ángulo, gran problema matemático, obtuvo grandes interpretaciones por parte de los matemáticos, quienes intentaron con sus distintos métodos y particularidades encontrar una respuesta a dicho problema. Una de las formas con las que se intentó dar respuesta proviene de Aristóteles, utilizando una cuerda y enrollándola sobre sí misma. Este método no fue aprobado por los griegos, ya que consideraban que estos problemas debían de solucionarse únicamente con la regla y el compás. 

Se denomina cuadratura de un círculo al problema matemático irresoluble de geometría, consistente en hallar, con regla y compás, un cuadrado que posea  un área que sea igual a la de un círculo dado, solo se puede calcular por el método de repeticiones sucesivas. 

La resolución de este problema trató de abordarse repetidas veces sin éxito, desde la antigüedad clásica hasta el siglo XIX. Los matemáticos de la Grecia clásica pronto se interesaron por cuadrar más o menos irregulares limitadas por rectas (superficies poligonales). Una superficie es cuadrable cuando, a partir de ella, es posible obtener geométricamente un cuadrado que tenga la misma área que aquella. Desde un punto de vista práctico, cuadrar superficies irregulares permitía simplificar el cálculo de sus áreas ya que, mientras podía ser fatigoso calcular el área de una superficie no regular, el cálculo del área de su cuadrado equivalente sería trivial. 




Los griegos, influidos por la preeminencia de la geometría en sus matemáticas, buscaron procedimientos puramente geométricos para hallar la cuadratura de las distintas superficies. Esto implicaba limitarse al uso de dos elementos tecnológicos simples, como el compás y la regla. Ha de añadirse que, para los griegos, era impropio usar el compás como instrumento para transportar distancias. Mediante los métodos de cuadratura de un rectángulo y del triángulo, así como mediante la descomposición de los polígonos en triángulos, los griegos cuadraban cualquier superficie poligonal. Era posible cuadrar superficies de lados rectilíneos. 

La posibilidad de cuadrar superficies limitadas por curvas (superficies curvilíneas), y, en especial, la cuadratura del círculo, no habría parecido tan plausible a los griegos de no haber sido por el  hecho de que Hipócrates de Quíos demostró que ciertas figuras curvilíneas construidas a propósito por él, llamadas lúnulas, podían cuadrarse. La resolución de la cuadratura de las lúnulas de Hipócrates creó una falsa expectativa entre los matemáticos de la antigüedad, llevándoles a pensar que podían cuadrar el círculo. 

En el siglo XX Chebotariov y Dorodnov probaron que, en general, las lúnulas no pueden cuadrarse, excepto los tres tipos de lúnulas propuestos por Hipócrates y dos tipos más aportados por Leonard Euler en el siglo XVIII. De esta forma quedó en manifiesto que la cuadratura de la lúnula no era otra cosa que la solución excepcional de un problema irresoluble, cosa que confundió a los matemáticos durante siglos, creyendo que las lúnulas podían acercarlos a la cuadratura del círculo. 

El "culpable" de la imposibilidad de construir un cuadrado y un círculo con el mismo área es el número Pi (3,1416...). Pi es un número que los matemáticos llaman trascendente, esto es, que no se puede obtener como solución de una ecuación que contenga, además de la consabida incógnita, números positivos, negativos o fracciones (es decir, números racionales). Por este motivo el área de un cuadrado (lado por lado), nunca puede ser igual a la de un círculo (Pi por radio al cuadrado). 








jueves, 25 de abril de 2013

La Ciencia en el Renacimiento



Al mismo tiempo que el siglo XVI constituye una etapa fecunda durante la cual se pondrán las bases para el nacimiento de la ciencia política, desde la primera mitad del siglo XV se venían renovando los conocimientos científicos. El Renacimiento científico debe mucho a la Edad Media. Las más importantes tendencias del Renacimiento, aquellas que determinaron la naturaleza de la actividad científica en el siglo XVI, aparecen progresivamente en los siglos XIV y XV. Ciertos acontecimientos dieron a este proceso una excepcional aceleración: la caída de Constantinopla, que llevó a Italia a una muchedumbre de científicos, acompañados de cuantiosos manuscritos científicos bizantinos y el invento de la imprenta y del libro, que permitió una mayor y mejor difusión de los textos. Los progresos se produjeron fundamentalmente en matemáticas, astronomía, física, química y anatomía.

En el terreno de las matemáticas, la segunda mitad del siglo XV supuso el encuentro entre los conocimientos matemáticos medievales y los árabes y el hallazgo de algunas fuentes griegas. Nicolás de Cusa (1401 - 1464), cosmólogo y filósofo, despertó los estudios matemáticos, y aunque no descubrió ninguna verdad científica, ejerció una indiscutible influencia en Leonardo da Vinci, Giordano Bruno, Copérnico y Kepler. Concretamente, su afirmación del valor absoluto del principio de continuidad y su identificación formal del círculo con un polígono de lados infinitos constituyen la base de la Estereometría de los toneles de Kepler, punto de arranque de la geometría de los invisibles en el siglo XVII. Para llegar a la demostración, Nicolás de Cusa sostiene que todo pensamiento consiste en una comparación y en el establecimiento de relaciones, que encuentran su mejor expresión en los números. Sin embargo, el número pertenece al campo de la finitud. Para alcanzar el máximo y el mínimo hay que trascender la serie indefinida de lo grande  y de lo pequeño de tal manera que el máximo y el mínimo coincidan en la noción del infinito. La coincidencia de los opuestos en el infinito aparece también geometría, en que nada se opone tan claramente como lo recto y lo curvo. Así la curvatura de un círculo disminuye a medida que aumenta su radio, y aumenta al disminuir éste, pero nunca será curvatura máxima ni mínima: lo que hace es desaparecer en el infinito. Como consecuencia de estas consideraciones, Cusa afirma que las matemáticas son las únicas ciencias que permiten al espíritu humano alcanzar la certeza. 

El progreso y la difusión de las matemáticas prácticas deben mucho a los manuales que se publicaron entre el último cuarto del siglo XV y todo el siglo XVI, que, sin aportar descubrimientos importantes, desempeñaron una función de trascendencia fundamental en la organización y recopilación del saber adquirido, así como en la elaboración de la notación algebrica. La Aritmética de Trvino (1478), que contiene una serie de reglas útiles para toda clase de cálculos destinados a los comerciantes, es el más antiguo de ellos. El manual de Johann Widmann (1489) proporcionó el uso de los siglos más y menos, para designar no solo adición y sustracción, sino defecto y exceso, así como la prima y asiento contable de compensación, muy útil para comerciantes y contables. Por las mismas fechas, el Triparty (Lyon, 1484), de Nicolás Chuquet, ofrecía un nuevo método de numeración sobre la base de dividir los números en grupos, por medio de puntos y atribuir a cada grupo un nombre según su órden, (mil de miles se convierte de esta manera en un millón, etc). Por su parte, el manual de Luca Pacioli (1445 - 1514), la Summa de arithmetica, geometría, proportioni et proportionalità (Perugia, 1487), auténtica enciclopedia, en la que se recogen las aportaciones de los matemáticos de la Antigüedad y los medievales. Dividida en cinco partes, expone las diferentes clases de números, las operaciones aritméticas clásicas, las extracciones de raíces, las fracciones, un manual de contabilidad por partida doble, una tabla de medida y monedas, etc. 

A Luca Pacioli y a Nicolás de Cusa debe Leonardo da Vinci sus conocimientos matemáticos. Autodidacta en todos los saberes, Leonardo es un práctico que ignora las letras clásicas, y que se forma en un taller, la escuela de Andrea Verrocchio, donde se aprende pintura, fundición, talla, planimetría, apertura de canales y obras públicas y arquitectura, cuyo aprendizaje y práctica implicaban la posición de un voluminoso conocimiento científico y matemático. Por ello, las aportaciones y soluciones no son teóricas, su geometría es la propia de un mecánico y su ciencia está orientada a la acción. 






La escuela algebrica italiana no destacó hasta la segunda mitad del siglo XVI, pero produjo notables matemáticos: Tartaglia, Cardano, Ferrari y Bombelli, a quienes se debe la lucha por el descubrimiento de la solución de la ecuación de tercer grado, de la que a finales del siglo XV Scipione del Ferro ya había aportado la solución de una forma. Los últimos años del siglo XVI significan para la ciencia italiana un período de cierto estancamiento. 

El centro del movimiento del pensamiento científico se traslada hacia los Países Bajos. Simon Stevin (1548 - 1620) era contable, constructor de molinos, y de fortificaciones, contable e intendente. Su primera obra recogio las primeras tablas de intereses, y posteriormente, en su libro Libro de Cuentas del Príncipe (1608), desarrolló los métodos de contabilidad por partida doble, aconsejando sus usos en las Haciendas Públicas. En 1585 publicó una colección bajo el título La aritmética de Simón Stevin de Brujas, donde incluye un tratado sobre las fracciones decimales que se difundirá con rapidez y éxito. Su segunda gran innovación es la unificación de la noción de número, hasta entonces los matemáticos desconocían que la unidad es número, de la misma naturaleza y tan divisible como los demás. Su éxito como matemático se debió a que admitió el carácter legítimo del número negativo, aceptando las soluciones negativas de las ecuaciones con las que se operaba y a que, por primera vez en la historia de la ciencia admitio y descubrió la equivalencia de la sustracción de un número positivo y la adición de un número negativo.

Si las matemáticas conocieron durante el siglo XVI una singular aceleración y difusión, la astronomía vivió un auténtico y fecundo renacimiento. En su progreso también se halla el pensamiento de Nicolás de Cusa. Gracias a él la concepción clásica de un mundo cerrado y jerárquicamente ordenado fue sustituida por la de uno abierto, ilimitado, e indefinitivamente extenso, un mundo cuyo centro está en todas partes y la circunferencia en ninguna. En su Docta Ignorancia (1440) rechazó que la Tierra sea el cuerpo más vil del lugar más bajo de un Universo dividido en dos regiones, subluumar y celeste. Defiende que el Universo es uno, diversificado y animado en todas partes de movimiento, y en el cual la Tierra es una estrella noble con luz y movimiento propios. Con tal obra y el pensamiento de Cusa, que destruyen el Cosmos antiguo, se pusieron las primeras bases para la revolución científica del siglo XVII, aunque su influencia inmediata fue escasa. Precisamente las ideas cosmológicas de Giordano Bruno y de Leonardo da Vinci son deudoras de aquél, sobre todo en el abandono de este último de la concepción geocéntrica. El pensamiento y la obra de Copérnico (1473 - 1543) fueron decisivos para que se produjera la revolución científica. 




Hacia 1512 Nicolás Copérnico concibió y dio a conocer la idea central de su sistema, el heliocentrismo. Sin embargo, hasta 1536 no fue invitado a publicar sus descubrimientos, propuesta que rechazó para evitar la reacción hostil de los teólogos romanos. Sería un seguidor suyo, Rético (1514 - 1574), quien emprendería la redacción de un breve resumen de su obra, Narrado prima, que se imprimió en Danzig en 1540. Después de leer a todos los filósofos que habían estudiado la estructura del Universo, observó que algunos de ellos creían en el movimiento de la Tierra. Verificada esa hipótesis rechazó el error de los matemáticos que habían hecho de la Tierra el centro del mundo. La polémica de Copérnico contra la astronomía y la cosmología tradicionales nos muestra que en el paso del geocentrismo al heliocentrismo se escondía una verdadera revolución astronómica. Copérnico reprocha a Aristóteles y a Plotomeo lo absurdo de pretender mover el lugar y no una parte del mismo. En segundo lugar, tanto la física de Aristóteles como la astronomía de Plotomeo afirmaban la inmovilidad de la Tierra en el centro del mundo. Si la Tierra se moviera las piedras lanzadas al aire o dejadas caer desde lo alto de una torre no volverían a caer al lugar desde donde habían sido lanzadas, o no caerían nunca al pie de la torre, sino que se retrasarían, afirmaban. Copérnico responde que las cosas que caen y que se elevan realizan un movimiento que es partícipe de la Tierra y son arrastradas por ella, realizando un movimiento mixto con relación al mundo que está compuesto de uno rectilíneo y otro circular, aunque a nuestros ojos parezca rectilíneo. La hipótesis de Copérnico decía que un cuerpo redondo situado en el espacio giraría en torno a sí mismo, sin necesidad de un motor que lo mantuviera en movimiento, sin necesidad de situarse en el centro físico, como sostenía Aristóteles. Por ello, aunque sitúa al Sol en el centro del Universo no lo coloca en el centro de los movimientos celestes, pues los centros de las esferas planetarias no se encuentran en el interior del Sol, sino alrededor de él. 

La difusión del pensamiento copernicano y la adopción de su sistema se produjo con mucha lentitud, aunque su De revolutionibis orbium coelestum (1543) fuese muy admirado. Los copernicanos escasearon en el siglo XVI, sobre todo por el temor de chocar con la autoridad de Aristóteles y de la Revelación. Para católicos y protestantes las ideas de Copérnico entraban en contradicción con las Sagradas Escrituras y por ello condenaron su doctrina. A ello se añadieron los argumentos científicos o físicos que apuntaban a lo absurdo e inconcebible de la teoría del movimiento terrestre copernicano. 

Giordano Bruno (1543 - 1600) profundizó en el sistema de Copérnico. Adopto en sus obras el infinitismo de la nueva astronomía y sustituyó el Cosmos ordenado y finito por un Universo infinito, inmenso y no enumerable, compuesto por infinitud de mundos semejantes al nuestro. La defensa apasionada de esa doctrina del Universo, que superaba la de Copérnico, le costó la persecución inquisitoria, la cárcel, la excomunión y la muerte en la hoguera (Roma, 1600). La cosmología de Bruno era para sus contempoáneos, gratuita, infundada, inaceptable, osada y radical. Infinitud del Universo, espacio geometrizado, relativitud del movimiento constituyen las ideas claves de la nueva cosmología, que será fundada por Galileo, Descartes y Newton. 





En física los progresos fueron escasos, dispersos, lentos y discontinuos. La física de Aristóteles se presentaba como una construcción teórica equilibrada, de acuerdo con el sentido común, capaz de ser útil a las actividades de los prácticos. De toda esta época, la obra de Leonardo da Vinci, de raíces aristotélicas, fue la más original, aunque no redactara trabajo teórico alguno. Sus aportaciones deben buscarse en el análisis de los casos concretos y en los dibujos. 

La química, en cambio, conoció un movimiento de investigación y descubrimientos desde finales del siglo XV. Una de las causas de su renacimiento fue la proliferación de los tratados químicos y alquímicos de los compiladores medievales. Los factores de progreso de la química estaban relacionados con el aumento de la actividad comercial del siglo XVI, que a su vez exigió la extensión de las actividades técnicas. La importancia de la tintorería en el progreso de la práctica química fue de relevancia capital, así como el renacimiento de las explotaciones mineras y de la industria metalúrgica en el aumento de los conocimientos químicos y en su difusión. Paracelso (1493 - 1541) es el más ilustre químico del Renacimiento. Partidario de la experimentación directa, de la observación de la Naturaleza como método seguro y de la introducción de la práctica médica del uso de medicamentos obtenidos del reino animal, logró dar a la química un impulso que no se detendría. 

El mismo año que se publicó la obra de Copérnico que exponía el sistema heliocéntrico, se imprimió un libro escrito por Andrés Vesalio, De humani corporis fabrica libri septem (Basilea, 1543), que revolucionó los conocimientos sobre la estructura del cuerpo humano. La anatomía, fundamento de la medicina, experimenta a partir de esa fecha un notable progreso, aunque el verdadero renacimiento de la medicina tardará en llegar. La renovación de la anatomía se produjo durante el siglo XVI, gracias a la recuperación de las fuentes literarias de la Antigüedad y a la generalización del encuentro directo con la Naturaleza como fuente suprema del saber. El preludio de esa renovación lo protagonizó Leonardo da Vinci gracias a sus investigaciones anatómicas. En distintos períodos de su vida practicó la disección de cadáveres, de fetos, de adultos y de ancianos, de los que realizó miles de croquis y tomó multitud de notas. Durante los primeros decenios del siglo XVI la disección didáctica para la enseñanza práctica de la anatomía humana y la autopsia judicial se difundieron y fueron ejecutadas en varias ciudades italianas. En 1535 el médico español Andrés Laguna publicó en París un manual de anatomía que presentaba la primera descripción exacta de la válvula ileocecal. Tres años más tarde el cirujano francés Etienne de la Riviere publicó una obra anatómica ilustrada, donde a la par que criticaba a los que aceptaban dogmáticamente la anatomía galeánica, expoía importantes descubrimientos, como la distinción de los nervios simpático y neumogástrico. La iconografía anatómica alcanza su cénit, por su realismo, en el atlas de Canao (1541), y en el libro monumental de Vesalio (1543).

De origen germánico Vesalio (1514 - 1564) era hijo del boticario del emperador, de lo que se deduce que recibió una esmerada educación clásica. Estudió medicina en París, Lovania y Padua y entre 1534 y 1543 enseñó anatomía en Padua, donde perfeccionó las técnicas de disección y de representación casi perfecta de las formas anatómicas. Posteriormente fue médico de Carlos I y de Felipe II, en cuyas campañas militares adquirió excelentes conocimientos de cirugía. Hacia 1538 aun es un adepto de Galeno. Sin embargo, bajo la influencia de sus maestros parisinos, volvió a las fuentes griegas y poco después centraría su atención en la Naturaleza. En sus Tabulae corrigió la descripción galénica del sacro y de la mandíbula y describió la próstata, y durante su estancia en Lovania conoció por vez primera, en el cuerpo de una mujer, el cuerpo amarillo del ovario. La ruptura definitiva con Galeno se produjo entre los años 1539 y 1540, durante sus demostraciones anatómicas en la universidad de Bolonia. Invocando la autopsia como única autoridad, Vesalio se negó a aceptar que el hígado tuviese cinco lóbulos y rechazó otras opiniones de Galeno, al que reprochaba no haber disecado nunca cadáveres humanos, sino animales, con ello reinvindicaba la necesidad de rehacer toda la anatomía humana. Fue él mismo quien inició la tarea publicando De humani corporis fabrica libri septem, que contenía 300 ilustraciones. Las seis primeras partes del libro están dedicadas a la osteología y a la miología, a la descripción del sistema nervioso central (que constituye la más valiosa aportación de la obra vesaliana), a las venas, las arterias, las vísceras del vientre y del tórax. Sus investigaciones sobre el corazón son especialmente importantes, pues estuvo próximo a reconocer la naturaleza muscular del corazón y su función motriz, negó la existencia de lo que Galeno llamó hueso cardíaco y señaló la ausencia de poros en el tabique interventricular. La séptima parte del libro estudia la anatomía delo cerebro, llegando a distinguir la sustancia blanca de la gris, y logrando una excelente representación de los ventrículos, de la glándula pineal, etc. Sus sucesores, Renaldo Colombo, pionero de la anatomía patológica, y Gabriel Falopio, que describió la cuerda del tímpano, los canales semicirculares del oído interno, la trompa uterina, etc, consiguieron, al corregir a Vesalio, una mayor exactitud en sus observaciones.