La Invención De La Ciencia — David Wootton / The Invention of Science: A New History of the Scientific Revolution by David Wootton

8EB8CDE5-781B-4428-A069-A0B295E47019
La ciencia moderna se inventó entre 1572, cuando Tycho Brahe vio una nova, o estrella nueva, y 1704, cuando Newton publicó su Opticks («Óptica»), que demostraba que la luz blanca está constituida por luz de todos los colores del arco iris, que se puede dividir en sus colores componentes mediante un prisma, y que el color es inherente a la luz, no a los objetos. Hubo sistemas de conocimiento que denominamos «ciencias» antes de 1572, pero el único que funcionó remotamente como una ciencia moderna, en el sentido de que tenía teorías complejas basadas en un cuerpo de evidencia sustancial y podía hacer predicciones fiables, era la astronomía, y fue la astronomía la que se transformó en los años posteriores a 1572 en la primera ciencia verdadera. ¿Qué hizo que la astronomía en los años posteriores a 1572 fuera una ciencia? Tenía un programa de investigación, una comunidad de expertos, y estaba preparada para cuestionar toda certeza establecida desde hacía tiempo (que no puede haber cambio en los cielos, que todo el movimiento en los cielos es circular, que los cielos están constituidos por esferas cristalinas) a la luz de nueva evidencia. Allí donde la astronomía conducía, otras nuevas ciencias surgieron.

Podríamos pensar que la pólvora, la imprenta y el descubrimiento de América en 1492 tendrían que haber obligado al Renacimiento a adquirir un sentido del pasado como algo perdido y desaparecido para siempre, pero las personas cultas se dieron cuenta solo de manera lenta de las consecuencias irreversibles que surgían de estas innovaciones cruciales. Solo retrospectivamente llegaron a simbolizar una nueva era; y fue la misma Revolución Científica la principal responsable de la convicción de la Ilustración de que el progreso se había hecho imparable. A mediados del siglo XVIII, el sentido del tiempo de Shakespeare había sido sustituido por el nuestro. Este libro se detiene allí, no porque fuera allí donde la Revolución terminó, sino porque para entonces ya era evidente que se había iniciado un proceso imparable de transformación. El triunfo del newtonianismo señala el final del principio.
Entre 1600 y 1733 (aproximadamente; el proceso estaba más avanzado en Inglaterra que en otras partes) el mundo intelectual de la élite educada cambió más rápidamente que en ningún otro momento de la historia previa, y quizá que en ningún otro momento antes del siglo XX. La magia fue sustituida por la ciencia, el mito por los hechos, la filosofía y la ciencia de la antigua Grecia por algo que todavía es reconocible como nuestra filosofía y nuestra ciencia, con el resultado que mi relato de una persona imaginaria en 1600 se formula automáticamente en términos de «creencia», mientras que en el de una tal persona en 1733 hablo en términos de «conocimiento». Desde luego, la transición todavía era incompleta. La química apenas existía. Para curar las enfermedades se utilizaban sangrías, purgas y eméticos.

La Revolución Científica no es como las revoluciones americana o francesa, que se denominaron revoluciones cuando tuvieron lugar; es una construcción de intelectuales que, desde el siglo XX, miraban hacia el pasado. El término viene modelado por el de «Revolución Industrial», que a finales del siglo XIX ya era común y corriente (y que, al parecer, se origina en 1848, con Horace Greeley, que ahora es famoso por haber dicho supuestamente «¡Ve al Oeste, muchacho!»), pero que también es una construcción a posteriori. Y, desde luego, esto significa que algunos querrán afirmar siempre que estaríamos mejor sin tales construcciones… aunque vale la pena recordar que los historiadores las emplean de manera constante (y a menudo sin pensar): «medieval», por ejemplo, o la guerra de los Treinta Años (términos que, necesariamente, solo pudieron ser introducidos a posteriori); o, para cualquier período antes del Renacimiento, «el estado», o, para cualquiera antes de mediados del siglo XVIII, «clase», en el sentido de clase social.
Como el término «Revolución Industrial», la idea de una revolución científica comporta problemas de multiplicación (¿cuántas revoluciones científicas?) y periodización (Butterfield consideró que su período iba de 1300 a 1800, de manera que pudiera discutir tanto los orígenes como las consecuencias de la revolución del siglo XVII). A medida que pasaba el tiempo, la idea de que hay algo que pueda denominarse con buen criterio la Revolución Científica se ha visto atacada cada vez más.

La revolución copernicana es una mutación o transformación conceptual que hizo del sol, y no de la tierra, el centro del universo, y que situó a la Tierra en movimiento alrededor del sol en lugar del sol alrededor de la tierra. Durante los primeros cien años después de la publicación del libro de Copérnico De revolutionibus orbium coelestium (On the Revolutions of the Heavenly Spheres) (Sobre las revoluciones de las esferas celestes) en 1543 solo un número limitado de especialistas estaban familiarizados con los detalles de sus argumentaciones, que no fueron aceptadas de manera general hasta la segunda mitad del siglo XVII.
La incapacidad de distinguir estos sentidos, y de preguntar cuál de ellos tenían en mente los primeros que utilizaron el término «la Revolución Científica», ha causado una enorme confusión. El origen de esta confusión es sencillo: desde sus primeras apariciones, el término «la Revolución Científica» se empleaba de dos maneras muy distintas. Para Dewey, Laski y Butterfield, la Revolución Científica era un proceso extenso, complejo y transformador, que se podía comparar con la Reforma (a la que Laski denominaba una revolución teológica) o con la Revolución Industrial.
El adjetivo «científico» se halla entre la «ciencia» clásica y el nombre «científico» del siglo XIX. Scientificus (de scientia y facere, producir conocimiento) no es un término del latín clásico; lo inventó Boecio a principios del siglo XI. En inglés, además de un par de ocurrencias en un texto de 1589, «científico» no aparece hasta 1637, y a partir de esta fecha se hace cada vez más común. Tiene tres significados principales: puede referirse a un determinado tipo de pericia («científica», opuesta a «mecánica»; el conocimiento de un estudioso o un caballero, en oposición al de un comerciante); a un método demostrativo (es decir, mediante silogismos aristotélicos); pero, en un tercer sentido (como en «la medición científica de triángulos», 1645, en una obra sobre topografía), se refiere a las nuevas ciencias de la Revolución Científica. En francés, el término «scientifique» apareció antes, en el siglo XIV, en el sentido de producción de conocimiento; en el siglo XVII se usaba para referirse a las ciencias abstractas y especulativas, y solo empieza a usarse como equivalente del término sustantivo inglés «científico» (un scientifique) en 1895, por la misma época en que el término inglés «scientist» empezaba a utilizarse de manera general.

El cristianismo no solo impuso una cronología abreviada; la liturgia se construyó alrededor de un ciclo sin fin, la recurrencia anual de la vida de Cristo. «Anualmente, la Iglesia se alegra porque Cristo ha vuelto a nacer en Belén; cuando el invierno se acerca a su fin, él entra en Jerusalén, es traicionado, crucificado, y una vez termina por fin la prolongada tristeza cuaresmal, se eleva de entre los muertos la mañana de Pascua». Al mismo tiempo, el sacramento de la Misa afirma «la perpetua contemporaneidad de la Pasión» y celebra el «matrimonio del tiempo presente con el tiempo pasado».
Simplemente, la idea de descubrimiento no podía arraigar en una cultura tan preocupada con la cronología bíblica y la repetición litúrgica, por un lado, y con las ideas seglares de renacimiento, recurrencia y reinterpretación, por el otro. Francis Bacon se quejaba en 1620 de que el mundo había estado hechizado, tan inexplicable era la reverencia por la Antigüedad. Thomas Browne protestó en 1646 contra la idea general de que cuanto más hacia atrás nos remontábamos en el tiempo, más nos acercábamos a la verdad.
El descubrimiento de América fue crucial para legitimar la innovación porque en cuestión de cuarenta años nadie ponía en duda que se trataba realmente de un acontecimiento sin precedentes, que no podía ser ignorado. También era un acontecimiento público, el inicio de un proceso por el cual los nuevos conocimientos, en oposición a la antigua cultura de la discreción, establecían su legitimidad en una palestra pública. Pero la celebración de la innovación se había iniciado antes incluso de 1492. En 1483, Diogo Cão erigió una columna de mármol rematada por una cruz en la desembocadura de lo que ahora denominamos río Congo, para señalar el límite extremo de la exploración hacia el sur. Esta fue la primera de lo que se convirtió en una serie de columnas, cada una de ellas destinada a señalar los límites del mundo conocido, y a sustituir de esta manera las Columnas de Hércules (el estrecho de Gibraltar), que habían hecho esta función para el mundo antiguo. Posteriormente, después de Colón, los españoles también participaron. En 1516, Carlos (el futuro Carlos V de España y emperador del Sacro Imperio Romano) adoptó como lema propio las Columnas de Hércules con la leyenda plus ultra, más allá», una consigna que posteriormente adoptaría Bacon. (No existe una traducción satisfactoria de plus ultra debido a su latín no gramatical). João de Barros pudo afirmar en 1555 que las Columnas de Hércules, «que él instaló ante nuestra misma puerta, por así decirlo, se han borrado del recuerdo humano y han sido lanzadas al silencio y al olvido».
Los viajes de descubrimiento produjeron una transformación asombrosa en el conocimiento geográfico a partir de 1460. Mientras que el mundo conocido en la primera mitad del siglo XV era más o menos idéntico al mundo conocido por un romano culto en la época de Cristo, a principios del siglo XVI era evidente que existían extensos territorios habitados que habían sido desconocidos por griegos y romanos. Mientras que la opinión convencional había sido que las tierras cercanas al ecuador tenían que ser inhabitables, esto había resultado ser una tontería. Esta expansión del mundo conocido la registraron detalladamente los cartógrafos, y produjo el primer gran triunfo de la experiencia sobre la teoría filosófica.
Como consecuencia del descubrimiento de América por Colón tuvo lugar una revolución silenciosa, la invención de lo que ahora llamamos «el globo terráqueo». Dicha revolución tuvo lugar en el espacio de unos pocos años y no (o casi no) encontró resistencia.

A veces se dan controversias reales, vívidas y duraderas en ciencia. En el siglo XVII tales conflictos tuvieron lugar entre los que creían en la posibilidad de un vacío y los que no, entre los que creían en la posibilidad de una Tierra en movimiento y los que no (después de 1613, partidarios de Brahe más que de Ptolomeo). A veces el resultado realmente vacila y cuelga en la cuerda floja. Pero, en otras ocasiones, edificios enormes, bien construidos, aparentemente robustos desde el punto de vista intelectual son barridos sin apenas un murmullo debido a que, para parafrasear a Vadiano, la experiencia puede ser realmente demostrativa. Si uno se concentra en la controversia, entonces empieza a parecer como si el progreso en ciencia fuera arbitrario e impredecible. Si suponemos que no hay un cambio importante sin controversia, entonces nuestra conjetura inicial nunca se pone a prueba. Parece que la tesis relativista se confirma porque nunca llega a considerarse siquiera la evidencia que la pondría en entredicho. El panorama cambia radicalmente si se considera de manera más amplia el cambio intelectual; entonces la desaparición de la teoría de las dos esferas y la teoría de la estrella oscura aparecen como ejemplos sorprendentes de cambio intelectual que tuvo lugar sin ninguna controversia en absoluto. Pero estas fueron teorías no menores: una la defendían los mejores filósofos de la Edad Media tardía; la otra los copernicanos más inteligentes de finales del siglo XVI. Sencillamente, la importancia de un cambio intelectual no puede medirse por la cantidad de controversia que genera.

La ciencia del Renacimiento fue más allá de la ciencia griega. Arquímedes gritó «¡Eureka!», pero el Renacimiento inventó el descubrimiento, las disputas de prioridad y la eponimia. Vitruvio describió algo parecido a la pintura en perspectiva, pero el Renacimiento inventó una nueva combinación de subjetividad y objetividad, el observador situado y el punto de fuga. Cicerón pensaba que la cartografía era una rama de la geometría, pero el Renacimiento desarrolló toda una nueva gama de nuevas disciplinas matemáticas y demostró su poder para dar sentido al mundo. Por encima de todo, el Renacimiento reconoció la existencia de hechos eliminadores: hechos que requerían el abandono de teorías bien establecidas. Es evidente que hubo algunos cambios fundamentales antes de 1608, pero en muchos aspectos la ciencia del Renacimiento fue esencialmente una extensión de la ciencia clásica. Regiomontano y Galileo se veían a sí mismos como discípulos de Arquímedes. Se habrían extrañado ante la afirmación de que tenían algo que Arquímedes no tenía (por exacta que dicha afirmación sería para Galileo.
Damos tan por sentados los hechos que nos resulta sorprendente descubrir que son una invención moderna. No hay una palabra en griego o latín clásicos para un hecho, y no hay manera de traducir a estas lenguas las frases del OED citadas anteriormente. Los griegos escribían de to hoti, «lo que es», y los filósofos escolásticos preguntaban an sit, «si es». Pero hay mucho margen para discutir con declaraciones de «es», y difícilmente se las podría describir como tozudas o poderosas. Desde luego, las palabras y las cosas no siempre son idénticas: se puede tener la idea de un hecho, o un procedimiento para establecer hechos, sin la palabra «hecho»; en realidad, en breve argumentaré que hay una distinción importante entre establecer el hecho y el lenguaje del hecho. Ya he dicho que los viajes de Vespucio produjeron hechos eliminadores… pero no hay ningún término que corresponda a «hecho» en los textos de Vespucio, ni en los idiomas originales (Mundus novus se publicó en latín en 1503; la Lettera («Carta») en italiano en 1505), ni en las numerosas traducciones iniciales.
En latín, el término que se traduce con más frecuencia por «hecho» por parte de los traductores modernos es res (cosa). Pero las cosas y los hechos no son lo mismo. Una cosa existe sin palabras, pero un hecho es una declaración.
Los hechos no son solo verdaderos o falsos; pueden ser confirmados apelando a la evidencia. La declaración «Yo creo en Dios» es verdadera o falsa, pero solo yo puedo saberlo con seguridad, porque se refiere a un estado mental puramente interno; es intrínsecamente subjetivo. Si practico determinadas observancias religiosas, entonces hay base para pensar que la declaración es verdadera, pero es difícil ver de qué manera se podría llegar a probar. Hay personas que siguen practicando observancias religiosas aunque su fe los ha abandonado (temporalmente, esperan). Pero yo puedo probar que he sido bautizado o que me he casado: estos son hechos documentados. Son situaciones objetivas.
Un filósofo contemporáneo ha distinguido entre tres tipos de hechos: hechos brutos, hechos dependientes del lenguaje y hechos institucionales.
¿Cuál es la importancia del hecho? Los posmodernistas no fueron los primeros en poner en duda la afirmación de que el conocimiento de los hechos es verdadero conocimiento. Ya lo había debatido Hobbes; pronto lo impugnaría Hume; en cualquier caso, todos los pensadores premodernos hasta Culverwell, este incluido, estaban familiarizadon con los argumentos que establecían lo poco fidedigno que era el conocimiento empírico. Aun así, a pesar de todos los argumentos, nosotros los modernos (y, de hecho, nosotros los posmodernos) ponemos nuestra fe en los hechos. Sin hechos no puede haber conocimiento fiable. No son los libros en tanto que objetos físicos lo que se requiere que respalde el hecho; son las fuentes que no se alteran ni cambian de un día para el otro, de las que los libros siguen siendo la manifestación más clara. Si se cita un libro (o una reproducción fotográfica de un libro en la Red), no hay necesidad de escribir «Consultado el…» porque el texto sigue siendo el mismo con independencia de cuándo se consulte. Es la fijeza de este texto lo que lo hace un móvil inmutable, y son móviles inmutables lo que se necesita si los hechos han de resistir hasta la era posterior a la imprenta.

ALQUIMISTA es alguien que estudia alquimia; es decir, la parte sublime de la química que enseña la transmutación de metales y la piedra filosofal; según la palabrería de los adeptos, que divierten a los ignorantes y los irreflexivos con palabras duras y tonterías. Porque si no fuera por la partícula árabe al, que necesitan que tenga una maravillosa virtud aquí, la palabra significaría no más que química, cuya derivación se ve a partir de este término. Se definió adecuadamente este estudio de la alquimia como Ars sine Arte, cuius principium est mentire, medium laborare, & finis mendicare: es decir, un arte sin arte, que empieza mintiendo, sigue con esfuerzo y trabajo y al final termina con mendicidad.
La desaparición de la alquimia proporciona evidencia adicional, si es que acaso se necesitara evidencia adicional, de que lo que señala nuestra ciencia moderna no es la realización de experimentos (los alquimistas realizaban gran cantidad de experimentos), sino la formación de una comunidad crítica capaz de evaluar los descubrimientos y replicar los resultados. La alquimia, en tanto que empresa clandestina, nunca podría haber desarrollado una comunidad del tipo adecuado. Popper tenía razón al pensar que la ciencia solo puede florecer en una sociedad abierta.

¿Qué es la ciencia? La respuesta: conocimiento de procesos naturales basado en la evidencia. En cuyo caso no puede haber ciencia sin un concepto de evidencia. Pero si empezamos buscando la palabra «evidencia» usada por los científicos del siglo XVII descubrimos algo peculiar: tienen la palabra, pero apenas la usan. Bacon, por ejemplo, que está desde luego familiarizado con el uso del término «evidencia» en un contexto legal, nunca la emplea cuando discute acerca de la filosofía natural. O bien tienen un concepto de evidencia distinto al nuestro, o bien hay algún obstáculo para su uso del término.
Hemos de empezar reconociendo que nosotros empleamos la palabra «evidencia» en cuatro sentidos diferentes. Primero, «evidencia» puede referirse a algo que es evidente. Es evidente que 2 + 2 = 4. Este es el significado original de «evidencia», que procede directamente del latín evidentia. Puesto que etimológicamente este es el significado vulgar de la palabra, el Oxford English Dictionary lo lista primero, con dos ejemplos de su uso original en 1665, a pesar de que tiene ejemplos del uso de la palabra en otros sentidos que se remontan a 1300 (en su primer significado en inglés, «una evidencia» es un ejemplo a imitar).
Aunque Locke emplea en otros lugares la palabra «evidencia» («los grados de su evidencia», «certeza y evidencia»), prefiere mucho más emplear la palabra «clara», y escribir que el conocimiento intuitivo es «como la brillante luz del Sol [que] se obliga a ser percibida inmediatamente, tan pronto como la mente gira la mirada en aquella dirección». Su discusión de ideas claras y distintas sigue así el ejemplo de Descartes, que sostiene que en una discusión solo pueden emplearse ideas que sean claras.
Una de las razones por las que Locke evita tanto como puede emplear la palabra «evidencia» es que en inglés esta tiene múltiples significados.
Segundo, «evidencia» se usa como un término en el derecho inglés (y solo en el inglés). Inicialmente (desde 1439), los tribunales ingleses consideraban el testimonio y la evidencia. La evidencia eran los documentos relevantes para el caso considerado; después (a partir de 1503), «evidencia» se convirtió en un término compuesto, que se refería a la vez al testimonio y a la evidencia documental. «Evidencia (Evidentia) —escribe John Cowell en The Interpreter («El intérprete», 1607), un libro que explica la terminología legal—, se usa en nuestro derecho generalmente para cualquier prueba, ya sea testimonio de hombres o instrumento.
No obstante, buscar el concepto de evidencia compensa de maneras imprevistas. De hecho, nos proporciona un descubrimiento que es extraño e inesperado. Porque cuando los científicos empezaron a hacer valoraciones en relación a la fiabilidad de la evidencia se les pidió que ejercitaran lo que todos ellos llamaban «juicio» (por ejemplo, Locke: «Al ser el conocimiento como es solo tiene visible una determinada verdad, el error no es un fallo de nuestro conocimiento, sino una equivocación de nuestro juicio que da un consentimiento a esto, que no es verdad»). Y ejercer el juicio requiere un conjunto de virtudes específico, las virtudes que uno esperaría encontrar en un jurado de nuestros iguales: imparcialidad, asiduidad, sinceridad. Encontramos estas virtudes en todos los casos de discusiones de evidencia-indicios, mientras que son en gran medida irrelevantes en discusiones de evidencia-perspicuidad.

Tanto en el mundo de Descartes como en el de Newton las leyes de la naturaleza eran inexorables, y los seres humanos habitaban un universo que, lejos de reflejar hacia ellos una imagen de sí mismos, del macrocosmo al microcosmo, parecía absolutamente indiferente a su existencia. Para ambos, el sol no era más que una estrella entre una multitud incalculable, y el universo era, si no infinito, al menos carente de ningún límite conocido. «Cuando considero la corta duración de mi vida, engullida en la eternidad antes y después, el pequeño espacio que ocupo, y que incluso puedo ver, envuelto en la inmensidad infinita de espacios de los que soy ignorante, y que no me conocen, me atemorizo… el silencio eterno de estos espacios infinitos me intimida», escribió Pascal, que había colaborado en hacer que naciera este nuevo mundo. Los significados inscritos por Dios en las formas de las cosas, la gran cadena del ser, la simpatía y la antipatía, la magia natural habían sido reemplazados por mecanismos ciegos y leyes inexorables. Incluso los animales, en opinión de Descartes, eran solo autómatas. Blake pintó a Newton jugando a ser Dios, midiendo el universo; preocupado con el lenguaje matemático simplificado de las leyes de la naturaleza, ya no puede ver la complejidad y la variedad que lo rodean; la calidad se ha visto reducida a mera cantidad. Este fue el principio de lo que Weber denominó «el desencanto del mundo».

Hacia 1700 se había desarrollado una concepción de la ciencia que desde entonces ha permanecido en gran parte inalterada, y con ella vino un relato fundamentalmente fiable de lo que había cambiado a lo largo de los doscientos años previos. En 1650 prácticamente nadie sabía cómo estudiar el mundo físico. Hacia 1700 se había establecido bien la idea de que el estudio del mundo físico tiene que ver con hechos, experimentos, evidencia, teorías y leyes de la naturaleza. Las revoluciones científicas posteriores han transformado nuestro conocimiento, pero no han fundido y vuelto a moldear nuestra idea de la ciencia.
El hecho de que incluso las teorías científicas mejor establecidas puedan no perdurar no significa que no sean fiables, y no significa que la ciencia no progrese. Ptolomeo dio a los astrólogos la información que necesitaban, y Newton explicó las leyes de Kepler del movimiento planetario. Demostramos la fiabilidad de la ciencia moderna en cada momento de cada día. Reconocer tanto las limitaciones de la ciencia como sus fortalezas requiere una mezcla especial de escepticismo y confianza; los relativistas exageran el escepticismo y los realistas exageran la confianza.
La ciencia (el programa de investigación, el método experimental, el entrelazamiento de ciencia pura y nuevas tecnologías, el lenguaje del conocimiento revocable) se inventó entre 1572 y 1704. Todavía vivimos con las consecuencias, y parece probable que los seres humanos sigan viviendo con ellas. Pero no solo vivimos con los beneficios tecnológicos de la ciencia: la moderna manera científica de pensar se ha convertido en una parte tan fundamental de nuestra cultura que hoy se hace difícil pensar retrospectivamente en un mundo en el que la gente no hablaba de hechos, hipótesis y teorías, en la que el conocimiento no se basaba en la evidencia, en el que la naturaleza no tenía leyes. La Revolución Científica se ha hecho casi invisible debido simplemente a que ha tenido un éxito tan extraordinario.

8B5BB9B0-00E3-462E-B9BB-8E3F12EDDD23

Modern science was invented between 1572, when Tycho Brahe saw a nova, or new star, and 1704, when Newton published his Opticks («Optics»), which showed that the white light is constituted by light of all the colors of the rainbow , which can be divided into its component colors by a prism, and that color is inherent in light, not objects. There were systems of knowledge that we called «sciences» before 1572, but the only one that operated remotely as a modern science, in the sense that it had complex theories based on a body of substantial evidence and could make reliable predictions, was astronomy, and it was astronomy that was transformed in the years after 1572 into the first true science. What made astronomy in the years after 1572 a science? It had a research program, a community of experts, and was prepared to question all certainty long established (that there can be no change in the heavens, that all movement in the heavens is circular, that the heavens are made up of crystalline spheres ) in the light of new evidence. Where astronomy led, other new sciences arose.

We might think that gunpowder, the printing press and the discovery of America in 1492 should have forced the Renaissance to acquire a sense of the past as something lost and gone forever, but educated people realized only slowly of the irreversible consequences that emerged from these crucial innovations. Only retrospectively they came to symbolize a new era; and it was the Scientific Revolution itself which was primarily responsible for the Enlightenment’s conviction that progress had been unstoppable. By the middle of the eighteenth century, Shakespeare’s sense of time had been replaced by ours. This book stops there, not because it was where the Revolution ended, but because by then it was already evident that an unstoppable process of transformation had begun. The triumph of Newtonianism marks the end of the beginning.
Between 1600 and 1733 (approximately, the process was more advanced in England than elsewhere) the intellectual world of the educated elite changed more rapidly than at any other time in the previous history, and perhaps at no other time before the twentieth century. Magic was replaced by science, myth by facts, philosophy and science of ancient Greece for something that is still recognizable as our philosophy and our science, with the result that my account of an imaginary person in 1600 is formulated automatically in terms of ‘belief’, whereas in that of one such person in 1733 I speak in terms of ‘knowledge’. Of course, the transition was still incomplete. Chemistry barely existed. Sangrias, purges, and emetics were used to cure diseases.

The Scientific Revolution is not like the American or French revolutions, which were called revolutions when they took place; is a construction of intellectuals who, since the twentieth century, looked back. The term is modeled on that of «Industrial Revolution,» which by the end of the nineteenth century was already commonplace (and apparently originated in 1848 with Horace Greeley, who is now famous for having allegedly said «Go to the west, boy! «), but which is also a posteriori construction. And, of course, this means that some will always want to assert that we would be better off without such constructions … although it is worth remembering that historians use them consistently (and often without thinking): «medieval», for example, or war of the Thirty Years (terms that, necessarily, could only be introduced a posteriori); or, for any period before the Renaissance, ‘the state’, or, for anyone before the middle of the eighteenth century, ‘class’, in the sense of social class.
Like the term «Industrial Revolution,» the idea of ​​a scientific revolution involves problems of multiplication (how many scientific revolutions?) And periodization (Butterfield considered that its period ran from 1300 to 1800, so that it could discuss both the origins and the consequences of the revolution of the seventeenth century). As time passed, the idea that there is something that can be called with good judgment the Scientific Revolution has been attacked more and more.

The Copernican revolution is a mutation or conceptual transformation that made the sun, not the earth, the center of the universe, and that set the Earth in motion around the sun instead of the sun around the earth. During the first hundred years after the publication of Copernicus’s book De revolutionibus orbium coelestium (On the Revolutions of the Heavenly Spheres) in 1543 only a limited number of specialists were familiar with the details of their arguments, which were not generally accepted until the second half of the seventeenth century.
The inability to distinguish these senses, and to ask which of them had in mind the first who used the term «Scientific Revolution,» has caused a great deal of confusion. The origin of this confusion is simple: from its first appearances, the term «Scientific Revolution» was used in two very different ways. For Dewey, Laski, and Butterfield, the Scientific Revolution was an extensive, complex and transformative process that could be compared to the Reformation (which Laski called a theological revolution) or the Industrial Revolution.
The adjective «scientific» is between classical «science» and the «scientific» name of the nineteenth century. Scientificus (of scientia and facere, to produce knowledge) is not a term of the classic Latin; Boethius invented it at the beginning of the eleventh century. In English, besides a pair of occurrences in a text of 1589, «scientist» does not appear until 1637, and from this date becomes more and more common. It has three main meanings: it can refer to a certain type of skill (‘scientific’, as opposed to ‘mechanical’, knowledge of a scholar or gentleman, as opposed to that of a trader); to a demonstrative method (ie, by Aristotelian syllogisms); but in a third sense (as in «the scientific measurement of triangles», 1645, in a work on topography), it refers to the new sciences of the Scientific Revolution. In French, the term «scientifique» appeared earlier, in the fourteenth century, in the sense of knowledge production; in the seventeenth century was used to refer to the abstract and speculative sciences, and only begins to be used as an equivalent of the English term «scientific» (scientifique) in 1895, around the same time in which the English term «scientist» be used in general.

Christianity not only imposed an abbreviated chronology; the liturgy was built around an endless cycle, the annual recurrence of the life of Christ. «Every year the Church rejoices because Christ has been born again in Bethlehem; when winter draws to an end, he enters Jerusalem, is betrayed, crucified, and once the prolonged Lenten sadness finally ends, he rises from the dead on the morning of Easter. » At the same time, the sacrament of the Mass affirms «the perpetual contemporaneity of the Passion» and celebrates the «marriage of present time with past time».
The idea of ​​discovery simply could not be rooted in a culture so preoccupied with biblical chronology and liturgical repetition, on the one hand, and secular ideas of rebirth, recurrence, and reinterpretation, on the other. Francis Bacon complained in 1620 that the world had been bewitched, so inexplicable was reverence for antiquity. Thomas Browne protested in 1646 against the general idea that the further back we reassembled in time, the closer we came to the truth.
The discovery of America was crucial to legitimize innovation because in forty years nobody doubted that it was really an unprecedented event that could not be ignored. It was also a public event, the beginning of a process by which new knowledge, as opposed to the old culture of discretion, established its legitimacy in a public talk. But the celebration of innovation had begun even before 1492. In 1483 Diogo Cão erected a marble column topped by a cross at the mouth of what we now call the Congo River, to mark the extreme limit of exploration to the south . This was the first of what became a series of columns, each designed to mark the boundaries of the known world, and to thereby replace the Columns of Hercules (the Straits of Gibraltar), which had done this function for the ancient world. Later, after Columbus, the Spaniards also participated. In 1516, Carlos (the future Charles V of Spain and emperor of the Holy Roman Empire) adopted as its own motto the Columns of Hercules with the legend plus ultra, beyond «a slogan that later adopted Bacon. (There is no satisfactory translation of plus ultra due to its non-grammatical Latin). João de Barros was able to affirm in 1555 that the Columns of Hercules, «which he installed before our very door, so to speak, have been erased from human memory and thrown into silence and oblivion.»
The voyages of discovery produced an astonishing transformation in geographical knowledge from 1460. While the world known in the first half of the fifteenth century was more or less identical to the world known to a Roman cult in the time of Christ, In the sixteenth century it was evident that there existed extensive inhabited territories that had been unknown by Greeks and Romans. While the conventional wisdom had been that the lands near the equator had to be uninhabitable, this had turned out to be nonsense. This expansion of the known world was recorded in detail by cartographers, and produced the first great triumph of experience on philosophical theory.
As a consequence of the discovery of America by Columbus, a silent revolution took place, the invention of what we now call «the globe.» This revolution took place in the space of a few years and did not (or hardly) found resistance.

Real, vivid, and lasting controversies in science are sometimes given. In the seventeenth century such conflicts took place between those who believed in the possibility of a void and those who did not, among those who believed in the possibility of a moving Earth and those who did not (after 1613, supporters of Brahe rather than Ptolemy). Sometimes the result really falters and hangs on the tightrope. But on other occasions, large, well-built, seemingly intellectually robust buildings are swept away with hardly a murmur because, to paraphrase Vadiano, the experience can be truly demonstrative. If one concentrates on controversy, then it begins to appear as if progress in science were arbitrary and unpredictable. If we assume that there is no significant change without controversy, then our initial conjecture is never put to the test. It seems that the relativist thesis is confirmed because it never comes to be considered even the evidence that would put in question. The picture changes radically if intellectual change is more widely considered; then the disappearance of the two-sphere theory and the dark star theory appear as striking examples of intellectual change that took place without any controversy at all. But these were not minor theories: one was defended by the best philosophers of the late Middle Ages; the other the most intelligent Copernicanos of the late sixteenth century. Quite simply, the importance of intellectual change can not be measured by the amount of controversy it generates.

The science of the Renaissance went beyond Greek science. Archimedes shouted «Eureka!» But the Renaissance invented the discovery, the disputes of priority and the eponymy. Vitruvius described something like perspective painting, but the Renaissance invented a new combination of subjectivity and objectivity, the situated observer and the vanishing point. Cicero thought that cartography was a branch of geometry, but the Renaissance developed a whole new range of new mathematical disciplines and demonstrated its power to make sense of the world. Above all, the Renaissance recognized the existence of eliminating facts: facts that required the abandonment of well-established theories. It is evident that there were some fundamental changes before 1608, but in many respects the science of the Renaissance was essentially an extension of classical science. Regiomontano and Galileo saw themselves as disciples of Archimedes. They would have been surprised at the claim that they had something that Archimedes did not have (just as Galileo would say.
We take for granted the facts that it is surprising to discover that they are a modern invention. There is no classical Greek or Latin word for a fact, and there is no way to translate the OED phrases mentioned above into these languages. The Greeks wrote de to hoti, «what is,» and the scholastic philosophers asked an sit, «if it is.» But there is much room for discussion with «es» statements, and they could hardly be described as stubborn or powerful. Of course, words and things are not always identical: one can have the idea of ​​a fact, or a procedure for establishing facts, without the word «fact»; in fact, I shall shortly argue that there is an important distinction between establishing the fact and the language of fact. I have already said that Vespucci’s travels produced eliminating events … but there is no term corresponding to «fact» in the texts of Vespucci, or in the original languages ​​(Mundus novus was published in Latin in 1503, Lettera («Letter») in Italian in 1505), or in numerous translations initials.
In Latin, the term that is most often translated as «done» by modern translators is res (thing). But things and facts are not the same. A thing exists without words, but a fact is a statement.
The facts are not only true or false; can be confirmed by appealing to the evidence. The statement «I believe in God» is true or false, but only I can know for sure, because it refers to a purely internal mental state; is intrinsically subjective. If I practice certain religious observances, then there is base to think that the declaration is true, but it is difficult to see in what way it could be tried. There are people who continue to practice religious observances even though their faith has abandoned them (temporarily, they wait). But I can prove that I have been baptized or that I have been married: these are documented facts. These are objective situations.
A contemporary philosopher has distinguished between three types of facts: gross facts, facts dependent on language and institutional facts.
What is the importance of the fact? Postmodernists were not the first to question the claim that knowledge of facts is true knowledge. Hobbes had already debated; Hume would soon be challenged; in any case, all pre-modern thinkers to Culverwell, this included, were familiar with the arguments that established how unreliable empirical knowledge was. Even so, despite all the arguments, we moderns (and, in fact, we postmodern ones) put our faith in the facts. Without facts there can be no reliable knowledge. It is not books as physical objects that is required to support the fact; are the sources that do not alter or change from day to day, of which books are still the clearest manifestation. If you cite a book (or a photographic reproduction of a book on the Web), there is no need to write «Queried on …» because the text remains the same regardless of when it is consulted. It is the fixity of this text that makes it an immutable motive, and it is immutable motives what is needed if the facts are to endure until the post-printing era.

ALCHEMIST is someone who studies alchemy; that is, the sublime part of the chemistry that teaches the transmutation of metals and the philosopher’s stone; according to the word of the adepts, who amuse the ignorant and the thoughtless with hard words and nonsense. For if it were not for the Arabic particle al, which need it to have a wonderful virtue here, the word would mean no more than chemistry, whose derivation is seen from this term. This study of alchemy was properly defined as Ars sine Art, cuius principium est liere, medium laborare, & amp; finis mendicare: that is, an art without art, which begins by lying, continues with effort and work and ends with begging.
The disappearance of alchemy provides additional evidence, if additional evidence is needed, that what our modern science points out is not experimentation (the alchemists performed a great deal of experiments), but the formation of a critical community capable of to evaluate the findings and replicate the results. Alchemy, as a clandestine enterprise, could never have developed a community of the right kind. Popper was right to think that science can only flourish in an open society.

What is science? The answer: knowledge of natural processes based on evidence. In which case there can be no science without a concept of evidence. But if we start by looking for the word «evidence» used by seventeenth-century scientists, we discover something peculiar: they have the word but hardly use it. Bacon, for example, who is familiar with the use of the term «evidence» in a legal context, never uses it when discussing natural philosophy. Either they have a concept of evidence different from ours, or there are some obstacles to their use of the term.
We must begin by recognizing that we use the word «evidence» in four different senses. First, «evidence» may refer to something that is self-evident. It is evident that 2 + 2 = 4. This is the original meaning of «evidence», which comes directly from the Latin evidentia. Since etymologically this is the vulgar meaning of the word, the Oxford English Dictionary lists it first, with two examples of its original use in 1665, although it has examples of the use of the word in other senses dating back to 1300 in its first meaning in English, «an evidence» is an example to imitate).
Although Locke elsewhere uses the word «evidence» («the degrees of his evidence», «certainty and evidence»), he prefers to use the word «clear» much more, and to write that intuitive knowledge is «like the bright light of Sun [who] is forced to be perceived immediately, as soon as the mind turns its gaze in that direction. » His discussion of clear and distinct ideas follows the example of Descartes, who argues that in a discussion only ideas that are clear can be used.
One of the reasons that Locke avoids as much as he can use the word «evidence» is that in English this has multiple meanings.
Second, «evidence» is used as a term in English law (and only in English). Initially (since 1439), English courts considered testimony and evidence. The evidence was the relevant documents for the case under consideration; (after 1503), «evidence» became a composite term, referring both to testimony and to documentary evidence. «Evidentia,» writes John Cowell in The Interpreter (1607), a book that explains legal terminology, «is used in our law generally for any evidence, whether it be a testimony of men or an instrument.
However, finding the concept of evidence compensates for unforeseen ways. In fact, it provides us with a discovery that is strange and unexpected. Because when scientists began to make judgments about the reliability of the evidence, they were asked to exercise what they all called «judgment» (eg, Locke: «Since knowledge is only a certain truth visible, error is not a fault of our knowledge, but a mistake of our judgment that gives consent to this, which is not true «). And to exercise the judgment requires a specific set of virtues, the virtues one would expect to find in a jury of our equals: impartiality, assiduity, sincerity. We find these virtues in all cases of evidence-clash discussions, while they are largely irrelevant in evidence-perspicuity discussions.

In both Descartes and Newton’s world the laws of nature were inexorable, and human beings inhabited a universe which, far from reflecting to them an image of themselves, from the macrocosm to the microcosm, seemed absolutely indifferent to its existence . For both, the sun was only a star among an incalculable multitude, and the universe was, if not infinite, at least devoid of any known limit. «When I consider the short duration of my life, engulfed in eternity before and after, the small space that I occupy, and that I can even see, wrapped in the infinite immensity of spaces of which I am ignorant, and who do not know me, frightened … the eternal silence of these infinite spaces intimidates me, «wrote Pascal, who had collaborated in making this new world born. The meanings inscribed by God in the forms of things, the great chain of being, sympathy and antipathy, natural magic had been replaced by blind mechanisms and inexorable laws. Even the animals, according to Descartes, were only automatons. Blake painted Newton playing God, measuring the universe; concerned with the simplified mathematical language of the laws of nature, can no longer see the complexity and variety that surround it; the quality has been reduced to mere quantity. This was the beginning of what Weber called «the disenchantment of the world».

By 1700 a conception of science had developed that has remained largely unchanged, and with it came a fundamentally reliable account of what had changed over the previous two hundred years. In 1650 practically no one knew how to study the physical world. By 1700 the idea that the study of the physical world had to do with facts, experiments, evidence, theories and laws of nature had been well established. The later scientific revolutions have transformed our knowledge, but they have not fused and molded our idea of ​​science again.
The fact that even the best established scientific theories may not last does not mean that they are unreliable, and does not mean that science does not progress. Ptolemy gave the astrologers the information they needed, and Newton explained Kepler’s laws of planetary motion. We demonstrate the reliability of modern science in every moment of every day. Recognizing both the limitations of science and its strengths requires a special mixture of skepticism and trust; relativists exaggerate skepticism and realists exaggerate confidence.
Science (the research program, the experimental method, the interweaving of pure science and new technologies, the language of revocable knowledge) was invented between 1572 and 1704. We still live with the consequences, and it seems likely that humans will continue to live with they. But we not only live with the technological benefits of science: the modern scientific way of thinking has become such a fundamental part of our culture that today it becomes difficult to think retrospectively in a world where people did not talk about facts, hypotheses and theories, in which knowledge was not based on evidence, in which nature had no laws. The Scientific Revolution has become almost invisible simply because it has had such extraordinary success.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.