Historia De La Criptografía. Cifras, Códigos Y Secretos Desde La Antigua Grecia A La Guerra Fría — Manuel J. Prieto / Crypto History. Figures, Codes And Secrets From Ancient Greece To The Cold War by Manuel J. Prieto (spanish book edition)

Un interesante libro para seguir profundizando sobre el tema. La necesidad de secretos y de formas de comunicarse seguras ha estado presente en la historia desde el comienzo de las relaciones entre humanos. Mantener información en secreto, para que tan solo uno mismo pueda conocerla y consultarla, es el primer paso. Pero tan pronto como aparecen los conflictos, y no es necesario que sean conflictos armados, la comunicación segura entre dos personas frente a un tercero cobra una importancia esencial. En el ámbito de la guerra o de los enfrentamientos más o menos abiertos y violentos, el intercambio de mensajes ha sido un elemento de preocupación para los gobernantes desde siempre.
La carrera de los secretos, como otras muchas, perdura después de siglos y siglos, ya que frente a un nuevo método de ocultación de información o a una nueva forma de comunicación segura, han ido naciendo nuevas formas de romper esos avances y por lo tanto de inutilizarlos. Si el uso de la criptografía a lo largo de la historia hubiese generado una solución definitiva y plenamente confiable, la historia sería otra.
El término criptoanalista aplicado a todos aquellos que han trabajado para romper una cifra o un código, sea cual sea el momento histórico, lo cierto es que este término fue acuñado en el año 1923 por William Friedman, uno de los mejores criptógrafos precisamente en ese campo del criptoanálisis. Hasta entonces, para describir esta tarea se usaban grupos de palabras, u otras palabras, como perlustrador, propia del castellano del siglo XVI. El criptoanálisis ha sido muy importante en la historia.
Cuando hablamos de clave, no solo se trata de una palabra o una frase, que es en lo que habitualmente pensamos al mencionar esa palabra. La clave, como veremos a lo largo del texto, es conceptualmente algo más genérico, y puede ser una secuencia de caracteres casi infinita o una secuencia que se vaya generando sobre la marcha, a medida que se genera el cifrado. Como norma general, digamos que siempre que no exista un código con las equivalencias estaremos ante un cifrado, por complicado que sea encontrar la clave o incluso si esta no existiera.
En ocasiones se combinan ambas cosas, codificación y cifrado. Se habla en estos casos, como hemos visto, de supercifrado.

El primer uso de la criptografía del que se tiene constancia data de hace casi 4.000 años, de aproximadamente el año 1900 antes de Cristo. Se trata de un objeto del antiguo Egipto, de un grabado en piedra realizado en la tumba de un noble de la ciudad de Menet Khufu, junto al Nilo, y en el que se cuentan los actos más importantes de su vida. Los símbolos habituales usados en la escritura jeroglífica de la época aparecen aquí modificados en cierta medida, y lo más importante es que hay algunas sustituciones entre ellos. Probablemente el objetivo al hacerlo no fuera ocultar ningún mensaje, motivo por el que habitualmente se usa la criptografía, ya que no tendría mucho sentido para la época describir la vida de un hombre en su tumba con una serie de símbolos a la vista de todos, y a su vez hacer incomprensible este escrito.
Cuatro siglos más tarde, en torno a 1500 a. C., en Mesopotamia, aparecen de nuevo alteraciones en la escritura habitual. Los signos cuneiformes eran modificados en algunas ocasiones, y en este caso sí que el objetivo coincidía ya con el de la criptografía tal y como la conocemos: esto es, ocultar información a determinados ojos. Es curioso que ya se detectara en los escritos cuneiformes de Mesopotamia, que están considerados como una de las primeras formas de escritura de la humanidad, la intención de ocultar el texto en claro.
Heródoto, el historiador clásico que vivió en el siglo V a. C., el que dejó por escrito para la posteridad los primeros casos de uso de las técnicas de comunicación seguras; en este caso, de la esteganografía. No es cualquier autor, ya que se le considera el padre de la historiografía por su obra Historias, escrita en torno al año 430 a. C. y en la que recoge los hechos y las luchas entre griegos y persas.
En el primer libro, Heródoto relata cómo Harpago, general medo, se vio como arma del rey Astiages contra su nieto, Ciro. Después de un sueño y dentro de una de esas historias de reyes y venganzas que pueblan las magníficas narraciones clásicas, a caballo entre la realidad y la leyenda, Astiages determinó que Ciro debía morir, a pesar de ser su nieto.

Lamentablemente no se tiene constancia del primer hombre que aplicó el criptoanálisis para romper una codificación, pero ese estudio del Corán llevó a un descubrimiento clave en el mundo de la criptografía: el análisis de la frecuencia de las letras. La fuente más antigua donde se describe esta técnica data del siglo IX y se la debemos a Al Kindi. Este filósofo se interesó por muchas disciplinas, desde las matemáticas hasta la astrología, y trabajó en la traducción al árabe de textos de científicos y sabios clásicos como Aristóteles. Nacido en torno al año 800, fue director de un lugar denominado la Casa de la Sabiduría, en Bagdad, donde se estudiaban y se traducían todo tipo de textos, además de servir de biblioteca.
Otro importante personaje de la Edad Media que dejó su pequeña muesca en la historia de la criptografía fue Hildegarda de Bingen, una abadesa nacida en 1098 y que, en 2012, más de 800 años después de su muerte en 1179, fue reconocida como doctora de la Iglesia. Otra mente inquieta y polifacética que, entre sus muchos intereses, contó con los números y la criptografía. Hildegarda de Bingen utilizaba un alfabeto para cifrar, que le había sido revelado en un momento de inspiración.

Un cambio importante en el siglo XVI en la gestión de lo que podríamos llamar inteligencia, usando terminología actual, fue la generalización y sistematización entre los estados y los poderes de la captura de información del enemigo o de aquel del que se quería saber. Usando de nuevo la terminología actual, la inteligencia de señales (SIGINT), que es la obtención de información a través de la interceptación de las señales o mensajes, sean transmitidos por el medio que sea, electrónico o no, tomó relevancia en aquel siglo y, como veremos en detalle, se crearon entidades dentro de los estados dedicadas a la captura de mensajes, no únicamente de enemigos, sino de cualquier otro gobierno, estado o personaje poderoso. Lógicamente, muchas de estas comunicaciones viajaban cifradas, por lo que la criptografía se desarrolló tras la estela de este auge de la inteligencia.
Johannes Trithemius, un abad alemán nacido en 1462, tomó el testigo de las ideas sobre sustitución polialfabética. Nacido en Trittenheim, su nombre proviene precisamente de ese lugar, ya que el real era Johann von Heidenberg. Sus intereses, como parece común y también lógico entre los pioneros de la criptografía, iban de las lenguas a las matemáticas y a la astrología. En la intersección de estas disciplinas, Tritemio, como también se le conoce, creó el cifrado que lleva su nombre y que se basa en una codificación polialfabética, donde tenemos un alfabeto en claro que va de la A a la Z y tantos alfabetos de cifrado como letras. Tritemio concibió una tabla donde cada fila contiene las letras del alfabeto ordenadas de distinto modo. La primera fila, eso sí, tendría el alfabeto ordenado como se hace habitualmente. De nuevo tenemos una herramienta básica para hacer cifrado polialfabético y así cifrar con mayor seguridad. El propio Tritemio denominó a esta matriz como tabula recta.
En 1641 un libro en Gran Bretaña con el título de Mercurio o el mensajero veloz y secreto, en el que se muestra cómo un hombre con privacidad y rapidez puede comunicar sus pensamientos a un amigo a cualquier distancia. El autor era John Wilkins, vicario y matemático, que sería rector del Trinity College de Cambridge y uno de los fundadores de la Royal Society. En el libro repasaba muchos códigos y cifras y trataba de ofrecer información suficiente para conocer y comprender la criptografía. Wilkins proponía determinar un grupo cerrado y reducido de símbolos que sustituyeran a todo el alfabeto. Estos pocos símbolos, combinados de distintas maneras podrían sustituir a todo un alfabeto. Las reflexiones del matemático inglés en torno a la codificación iban al corazón mismo de la información. Para Wilkins la escritura era uno más de los métodos de comunicación de información donde, según dejó escrito, cualquier cosa que sea capaz de presentar una diferencia competente, perceptible para cualquier sentido, puede ser un medio suficiente mediante el cual expresar las cogitaciones.

Napoleón desconocía el control que Wellington tenía sobre sus movimientos en la península gracias al descifrado de la Gran Cifra de París, y quizás por ello pensaba que en Rusia podría servir con una cifra más simple, que era la que se utilizaba habitualmente en el este.

El ordenador se hizo con el mundo de los códigos y la criptografía y desde entonces no tiene sentido cifrar o intentar descifrar sin su ayuda. Los cálculos necesarios para que una cifra soporte un ataque a través de un software, solo son accesibles a su vez al propio software, por lo que podemos afirmar que, desde hace unas décadas, criptografía y computación van de la mano. Esta conexión comenzó desde los primeros momentos de existencia de algo parecido al ordenador, aunque sea de forma lejana. Y el pionero que unió ambos mundos fue Charles Babbage.
Nacido en 1791, era hijo de un banquero de Londres, por lo que, a pesar de perder parte de su herencia por casarse sin el permiso paterno, tuvo el dinero suficiente para dedicarse a resolver los problemas que le estimulaban el cerebro, sin tener que preocuparse mucho por cómo ganarse la vida.
Babbage se planteó que, calculando e implantando unas tarifas comunes para todos los envíos, se eliminaría el trabajo de tener que hacer todos esos cálculos para el cobro de cada uno de ellos de manera independiente, y además se simplificaría el propio cobro. Y ese trabajo que desaparecía, quizás ahorrara más dinero del que se ganaba con un coste variable por carta. La intuición de Babbage apuntaba en la buena dirección y así se pasó a tener un coste fijo por envío, con alguna variación, por ejemplo si el destino era internacional. El sistema se ha mantenido en el tiempo y es el que rige en la actualidad, donde se compran sellos para franquear las cartas, sabiendo de antemano el coste que hemos de pagar y eliminando todo ese proceso de cálculo de la oficina de correos.
El reconocimiento a Babbage como precursor de la computación se debe a su máquina diferencial.

Rompiendo uno de los principios básicos de los servicios de inteligencia, el gobierno británico, de acuerdo con el propio GC&CS, entregó a varios periódicos los telegramas rusos interceptados y descifrados. Esto mismo se repitió en otras ocasiones a lo largo de la década, siempre para hacer públicos los movimientos de Rusia por influir en la política y en la sociedad británica. No en todos estos casos el GC&CS (Government Code and Cypher School) estuvo de acuerdo con la difusión pública de su trabajo, a diferencia de lo que ocurriría en el primer caso. En mayo de 1927 las relaciones entre ambos países quedaron finalmente rotas. En aquella ocasión se publicaron detalles del espionaje soviético en territorio británico, en contra de la opinión de Denniston, el director del GC&CS, que temía las consecuencias. El temor de este se cumplió y los rusos cambiaron sus códigos diplomáticos, adoptando una libreta de un solo uso. En la nueva situación, los códigos diplomáticos soviéticos, igual que había pasado con los alemanes, se volvieron irresolubles para la inteligencia británica. Hasta bien entrada la Segunda Guerra Mundial, esos códigos continuarían siendo seguros.

En la Guerra Civil Española, ambos bandos tuvieron su servicio de criptografía, tanto para desarrollar e implantar métodos propios, como para atacar y romper los usados por el bando enemigo. Tras el primer momento de confusión, cuando comenzó a plasmarse claramente en las previsiones de unos y otros que el conflicto no se resolvería de manera rápida, se dieron los pasos para estructurar cada área necesaria, entre ellas la inteligencia y, por supuesto, la criptografía. Los primeros días fueron complejos, con unos y otros usando las cifras que conocían con anterioridad a la guerra, que en muchos casos eran compartidas con el enemigo. No había formación, los métodos era sencillos y a menudo inútiles para mantener la seguridad. Se podría llegar a decir incluso que cualquier comunicación enemiga captada podría ser leída sin demasiado esfuerzo.

Turing es quizás el caso más destacado, pero también hubo mujeres entre la élite de criptoanalistas. Joan Clarke se unió en junio de 1940 al equipo del cobertizo 8. Estudiaba matemáticas en Cambridge, y allí fue donde Gordon Welchman descubrió su talento y la reclutó para Bletchley Park, a pesar de lo cual su trabajo inicial era más administrativo que criptográfico.
En agosto de 1942 el teniente general británico Bernard Montgomery, conocido popularmente como Monty, se puso al frente del Octavo Ejército para contener y combatir a las tropas acorazadas de Rommel, cuyo sobrenombre era el Zorro del Desierto, precisamente por su capacidad para aprovechar sus fuerzas acorazadas en ese entorno. Este también tenía información clasificada sobre su enemigo, proveniente de los servicios de escucha de señales y descifrado alemanes, pero lo cierto es que el partido que le sacó el bando aliado a este tipo de fuentes fue mayor. Montgomery conocía los planes de Rommel y sus movimientos gracias a Bletchley Park. Y también conocía los problemas de suministro que azotaron a los alemanes en un determinado momento y que fueron explotados con gran éxito por sus enemigos.
Durante la batalla de Iwo Jima, ya en febrero de 1945, con la guerra en su recta final, más de 800 mensajes fueron enviados por los navajos, sin errores. Su papel fue relevante y cumplió su cometido. Al final de la Segunda Guerra Mundial más de 400 indios navajos habían formado parte del ejército en ese papel de emisores y receptores de las comunicaciones usando su propio idioma. Pasaron muchos años antes de que dicho papel fuera conocido y reconocido, ya que al finalizar la guerra se les prohibió hablar de lo que habían hecho, lógicamente, por seguridad y para mantener en secreto esa baza, esa forma de comunicación que podría ser útil en otras ocasiones. Sería en 1968, más de dos décadas después de la guerra, cuando se desclasificara la documentación y se comenzara a reconocer su contribución.

Uno de los problemas que hubo con la puesta en marcha de TICOM era que las personas que más conocimiento podrían tener en este campo eran en la mayoría de los casos conocedores de ULTRA. Por lo tanto, enviar a estas personas cerca de la línea del frente e incluso más allá de ella, era un riesgo no asumible. Si cayeran en manos enemigas, podrían revelar información crítica. Por ello, una unidad de los marines británicos fue asignada como escolta y protección para los integrantes del proyecto TICOM.
El proyecto Venona se mantuvo en el más alto secreto, aunque sí se compartió cierta información con los demás firmantes del Acuerdo UKUSA, en 1946. El grupo que se formó tras este acuerdo, conocido como Five Eyes, contaba con Estados Unidos, Reino Unido, Nueva Zelanda, Australia y Canadá. Estos países compartirían información de inteligencia de señales, SIGINT. Incluso dentro de las agencias de Estados Unidos con responsabilidad en seguridad nacional e internacional, el proyecto se mantuvo en secreto.
Hasta finales de 1952, por ejemplo, la CIA no fue informada de la existencia de Venona. Cuando Kim Philby, quizás el agente doble más famoso de todos los tiempos, que trabajaba oficialmente en el servicio secreto británico, como agente del más alto rango mientras servía a los rusos, visitó Washington, se le prohibió hablar de Venona con cualquier persona de la CIA. Por supuesto, la información sobre el proyecto secreto sí fue comunicada por Philby a la KGB. Así, gracias a Philby y a algún otro agente soviético, los rusos tuvieron conocimiento pronto, en los primeros momentos de la Guerra Fría, de que los criptoanalistas estadounidenses y británicos podían leer su correo.
(Snowden) La agencia gubernamental estadounidense estaba accediendo a los registros telefónicos de millones de clientes, a través de sus operadoras, y a los datos que Google y Facebook, entre otros, tenían sobre sus clientes. Bajo el proyecto PRISM, correos electrónicos, chats, historial de búsquedas… de los ciudadanos, eran recabados por la NSA. Snowden reveló que el gobierno de Estados Unidos había estado infiltrándose en los sistemas informáticos chinos durante años. Las Naciones Unidas y la Unión Europa también habían sido espiadas.

Las grandes potencias del bloque contrario, el soviético, habían alcanzado un nivel de seguridad suficiente, no así los países de segunda fila. Gracias a la infiltración de estas comunicaciones, Estados Unidos tuvo información de primera mano sobre los movimientos militares y los enfrentamientos en Oriente Próximo en 1967, tanto antes como durante los propios combates que tuvieron lugar. La invasión de Checoslovaquia en agosto de 1968 por parte del Pacto de Varsovia, por ejemplo, no cogió por sorpresa a los norteamericanos. Los movimientos de tropas y las comunicaciones dentro del Pacto de Varsovia ya habían advertido de que algo iba a ocurrir, si bien los analistas de la CIA, en su mayoría, no creían probable la invasión que finalmente sucedió.
En definitiva, la criptografía siguió presente en el mundo de la Guerra Fría como lo había hecho en toda la historia, e incluso más. Durante gran parte de este tiempo, eso sí, los cifrados parece que han vencido a los criptoanalistas, y las consecuencias, victorias o derrotas, han venido más de las operaciones encubiertas y del espionaje que de la fuerza de la inteligencia contra los códigos.

En 1975, con el visto bueno de la NBS y la NSA, el cifrado de IBM fue hecho público para la última fase dentro del proceso, su estudio y validación por el resto de la comunidad criptográfica, esto es, investigadores, universidades, empresas privadas… El proceso acabó por fin cuatro años después de su comienzo, en enero de 1977, cuando el cifrado Lucifer de IBM se convirtió en un estándar de cifrado, si bien se le cambió el nombre a DES, Data Encryption Standar. Como estándar que era, poco a poco fue extendiéndose a todos los ámbitos y el software comenzó a implantarlo como solución de almacenamiento seguro, mientras distintos productores de hardware implementaron chips para aplicar DES a alta velocidad.
Aún hoy continúa la polémica sobre la seguridad del DES y sobre si la NSA, que como hemos visto participó en el proceso de estandarización, pudo analizar, y quién sabe si modificar, el algoritmo para encontrar o preparar una puerta trasera que le permitiera romperlo.
Un concepto interesante y muy común en el mundo de la criptografía actual es que muchos de los métodos que se utilizan, basados en las características de determinados números, en especial los números primos, y de ciertas operaciones, se saben vulnerables, si bien en la actualidad son seguros. Esto es debido a que el método conocido para romper el cifrado requiere un volumen de cálculo que hoy está fuera del alcance de nuestras capacidades. En ocasiones se duda si fuera del alcance de todos o de casi todos. Estos métodos computacionalmente seguros, lo son a día de hoy, pero serán vulnerables con el paso del tiempo, a medida que los computadores aumenten su capacidad de cálculo.
DES no era el único algoritmo criptográfico disponible ni utilizado. Desde los años setenta han aparecido centenares de propuestas de todo tipo, y muchas de ellas se han implementado y utilizado de manera amplia. En enero de 1997 se repitió el proceso de búsqueda de un estándar general en la industria para sustituir a DES.
El algoritmo de clave pública más utilizado y popular es el RSA, siglas que provienen de sus creadores, Rivest, Shamir y Adleman. Estos tres hombres formaban parte del MIT, del Massachusetts Institute of Technology, y publicaron su propuesta en agosto de 1977. La NSA lanzó una acción jurídica contra la implementación pública del RSA, lo que dio comienzo a una batalla legal que paralizó el desarrollo del sistema durante un buen tiempo.
Finalmente, en 1982 Rivest, Shamir y Adleman crearon una empresa para explotar su idea, la RSA Data Security, con la que obtuvieron un éxito empresarial enorme. Este tipo de criptografía es hoy omnipresente y la utilizamos todos los días, aun cuando no sabemos que está detrás de los protocolos y algoritmos que protegen nuestras comunicaciones.

—————

An interesting book to continue deepening on the subject. The need for secrets and for secure ways of communicating has been present in history since the beginning of human relations. Keeping information secret, so that only one can know and consult it, is the first step. But as soon as conflicts appear, and need not be armed conflicts, secure communication between two people in front of a third party becomes essential. In the field of war or more or less open and violent confrontations, the exchange of messages has always been an element of concern for the rulers.
The race of secrets, like many others, lasts after centuries and centuries, since in front of a new method of information concealment or a new form of secure communication, new ways have been born to break those advances and therefore to disable them. If the use of cryptography throughout history had generated a definitive and fully reliable solution, the history would be another.
The term cryptanalyst applied to all those who have worked to break a number or a code, whatever the historical moment, the truth is that this term was coined in 1923 by William Friedman, one of the best cryptographers precisely in that field of cryptanalysis. Until then, groups of words were used to describe this task, or other words, such as perlustrador, typical of 16th century Spanish. Cryptanalysis has been very important in history.
When we talk about code, it’s not just about a word or a phrase, which is what we usually think of when mentioning that word. The key, as we will see throughout the text, is conceptually somewhat more generic, and can be an almost infinite sequence of characters or a sequence that is generated on the fly, as encryption is generated. As a general rule, let’s say that whenever there is no code with the equivalences, we will be faced with an encryption, however difficult it is to find the key or even if it does not exist.
Sometimes both encoding and encryption are combined. In these cases, as we have seen, there is talk of super encryption.

The first use of cryptography that is known dates back almost 4,000 years ago, from around 1900 BC. It is an object from ancient Egypt, from a stone engraving made at the grave of a nobleman from the city of Menet Khufu, next to the Nile, and in which the most important acts of his life are recounted. The usual symbols used in the hieroglyphic writing of the time appear here modified to some extent, and the most important thing is that there are some substitutions between them. Probably the objective in doing so was not to hide any message, which is why cryptography is usually used, since it would not make much sense for the time to describe the life of a man in his grave with a series of symbols for all to see, and in turn make this writing incomprehensible.
Four centuries later, around 1500 a. C., in Mesopotamia, alterations appear again in the habitual writing. Cuneiform signs were modified on some occasions, and in this case, the objective already coincided with that of cryptography as we know it: that is, to hide information from certain eyes. It is curious that the cuneiform writings of Mesopotamia, which are considered as one of the first forms of writing of humanity, already detected the intention to hide the text clearly.
Herodotus, the classical historian who lived in the 5th century BC. C., who left in writing for posterity the first cases of use of secure communication techniques; in this case, from steganography. He is not any author, since he is considered the father of historiography for his work Histories, written around the year 430 BC. C. and in which it gathers the facts and the struggles between Greeks and Persians.
In the first book, Herodotus relates how Harpago, a Medo general, saw himself as King Astiages’s weapon against his grandson, Cyrus. After a dream and within one of those stories of kings and revenges that populate the magnificent classic narratives, straddling reality and legend, Astiages determined that Cyrus must die, despite being his grandson.

Unfortunately there is no record of the first man who applied cryptanalysis to break a coding, but that study of the Koran led to a key discovery in the world of cryptography: the analysis of the frequency of letters. The oldest source where this technique is described dates from the 9th century and we owe it to Al Kindi. This philosopher became interested in many disciplines, from mathematics to astrology, and worked on the Arabic translation of texts by scientists and classical scholars such as Aristotle. Born around 800, he was director of a place called the House of Wisdom, in Baghdad, where all kinds of texts were studied and translated, in addition to serving as a library.
Another important character from the Middle Ages who left her little mark in the history of cryptography was Hildegard of Bingen, an abbess born in 1098 and who, in 2012, more than 800 years after her death in 1179, was recognized as a doctor of church. Another restless and multifaceted mind that, among its many interests, included numbers and cryptography. Hildegard of Bingen used an alphabet to encrypt, which had been revealed to her in a moment of inspiration.

An important change in the sixteenth century in the management of what we could call intelligence, using current terminology, was the generalization and systematization between the states and the powers to capture information from the enemy or from the one that was wanted to know. Using the current terminology again, signal intelligence (SIGINT), which is the obtaining of information through the interception of signals or messages, whether transmitted by whatever means, electronic or not, became relevant in that century and As we will see in detail, entities were created within the states dedicated to capturing messages, not only from enemies, but from any other government, state or powerful person. Logically, many of these communications traveled encrypted, so crypto developed in the wake of this intelligence boom.
Johannes Trithemius, a German abbot born in 1462, took the lead on ideas about polyalphabetic substitution. Born in Trittenheim, his name comes precisely from that place, since the real one was Johann von Heidenberg. His interests, as seems common and also logical among the pioneers of cryptography, ranged from languages to mathematics and astrology. At the intersection of these disciplines, Tritemio, as he is also known, created the encryption that bears his name and that is based on a polyalphabetic encoding, where we have a clear alphabet that goes from A to Z and as many encryption alphabets as letters. Tritemio conceived a table where each row contains the letters of the alphabet arranged in a different way. The first row, yes, would have the alphabet ordered as usual. Again we have a basic tool to do polyalphabetic encryption and thus encrypt with greater security. Tritemio himself called this matrix a straight tabula.
In 1641 a book in Great Britain with the title of Mercury or the speedy and secret messenger, which shows how a man with privacy and speed can communicate his thoughts to a friend at any distance. The author was John Wilkins, vicar and mathematician, who would be rector of Trinity College, Cambridge and one of the founders of the Royal Society. In the book I went through many codes and figures and tried to offer enough information to know and understand cryptography. Wilkins proposed to determine a closed and reduced group of symbols that replaced the entire alphabet. These few symbols, combined in different ways, could replace an entire alphabet. The English mathematician’s reflections on coding went to the heart of the information. For Wilkins, writing was one of the methods of communication of information where, according to what he wrote, anything that is capable of making a competent difference, perceivable in any sense, can be a sufficient means by which to express cogitations.

Napoleon was unaware of Wellington’s control over his movements on the peninsula thanks to the deciphering of the Great Figure of Paris, and perhaps for this reason he thought that in Russia it could serve with a simpler figure, which was the one commonly used in the east.

The computer took over the world of codes and cryptography and since then it has made no sense to encrypt or attempt to decrypt without your help. The calculations necessary for a number to support an attack through software are only accessible in turn to the software itself, so we can affirm that, for a few decades, cryptography and computing have gone hand in hand. This connection began from the first moments of existence of something similar to the computer, even if it is distant. And the pioneer that linked both worlds was Charles Babbage.
Born in 1791, he was the son of a London banker, so, despite losing part of his inheritance by marrying without parental permission, he had enough money to dedicate himself to solving the problems that stimulated his brain, without having to worry a lot about how to earn a living.
Babbage argued that, by calculating and implementing common rates for all shipments, the work of having to do all those calculations for the collection of each of them independently would be eliminated, and also the collection itself would be simplified. And that disappearing job might save more money than was earned at a variable cost per letter. Babbage’s intuition pointed in the right direction and thus it became a fixed cost per shipment, with some variation, for example if the destination was international. The system has been maintained over time and is the one that currently governs, where stamps are purchased to cover the letters, knowing in advance the cost we have to pay and eliminating all that calculation process of the post office.
Babbage’s recognition as a precursor to computing is due to his differential machine.

Breaking one of the basic tenets of the intelligence services, the British government, according to GC & CS itself, handed over to Russian newspapers the intercepted and decrypted Russian telegrams. The same thing was repeated on other occasions throughout the decade, always to publicize Russia’s movements to influence British politics and society. Not in all these cases the GC & amp; CS (Government Code and Cypher School) agreed with the public dissemination of their work, unlike what would happen in the first case. In May 1927 relations between the two countries were finally broken. Details of Soviet espionage on British soil were published on that occasion, contrary to the opinion of Denniston, the director of the GC & amp; CS, who feared the consequences. The fear of this was fulfilled and the Russians changed their diplomatic codes, adopting a single-use pad. In the new situation, the Soviet diplomatic codes, as had happened with the Germans, became unsolvable for British intelligence. Until well into World War II, those codes would remain secure.

In the Spanish Civil War, both sides had their cryptographic service, both to develop and implement their own methods, and to attack and break those used by the enemy side. After the first moment of confusion, when it began to be clearly reflected in each other’s forecasts that the conflict would not be resolved quickly, steps were taken to structure each necessary area, including intelligence and, of course, cryptography. . The first days were complex, with each other using the figures they knew before the war, which in many cases were shared with the enemy. There was no training, the methods were simple and often useless to maintain security. It could even be said that any captured enemy communication could be read without too much effort.

Turing is perhaps the most prominent case, but there were also women among the elite of cryptanalysts. Joan Clarke joined the shed 8 team in June 1940. She was studying mathematics at Cambridge, and that’s where Gordon Welchman discovered her talent and recruited her for Bletchley Park, despite which her initial job was more administrative than cryptographic.
In August 1942 British Lieutenant General Bernard Montgomery, popularly known as Monty, took command of the Eighth Army to contain and fight Rommel’s armored troops, whose nickname was the Desert Fox, precisely because of his ability to harness his forces. armored in that environment. This also had classified information about his enemy, from the German signal listening and decryption services, but the truth is that the party that took the allied side from this type of source was greater. Montgomery knew about Rommel’s plans and his moves thanks to Bletchley Park. And he also knew about the supply problems that plagued the Germans at a certain time and were exploited with great success by their enemies.
During the battle of Iwo Jima, already in February 1945, with the war in its final stretch, more than 800 messages were sent by the Navajo, without errors. His role was relevant and he fulfilled his mission. At the end of World War II, more than 400 Navajo Indians had joined the army in this role as senders and receivers of communications using their own language. Many years passed before this role was known and recognized, since at the end of the war they were prohibited from talking about what they had done, logically, for security and to keep secret that trick, that form of communication that could be useful in other ocasions. It would be in 1968, more than two decades after the war, when the documentation was declassified and its contribution began to be recognized.

One of the problems with the implementation of TICOM was that the people with the most knowledge in this field were, in most cases, knowledgeable about ULTRA. Therefore, sending these people close to and even beyond the front line was an unacceptable risk. If they fell into enemy hands, they could reveal critical information. Therefore, a unit of the British Marines was assigned as an escort and protection for the members of the TICOM project.
The Venona project was kept top secret, although some information was shared with the other signatories of the UKUSA Agreement in 1946. The group that formed after this agreement, known as the Five Eyes, had the United States, the United Kingdom, New Zealand, Australia and Canada. These countries would share signal intelligence information, SIGINT. Even within United States agencies with responsibility for national and international security, the project was kept secret.
It was not until the end of 1952, for example, that the CIA was informed of the existence of Venona. When Kim Philby, perhaps the most famous double agent of all time, who was officially working in the British Secret Service, as the highest-ranking agent while serving the Russians, visited Washington, he was prohibited from discussing Venona with anyone from the INC. Of course, the information about the secret project was communicated by Philby to the KGB. Thus, thanks to Philby and some other Soviet agent, the Russians soon learned, in the early moments of the Cold War, that American and British cryptanalysts could read his mail.
(Snowden) The US government agency was accessing the phone records of millions of customers, through its operators, and the data that Google and Facebook, among others, had about their customers. Under the PRISM project, emails, chats, search history … from citizens were collected by the NSA. Snowden revealed that the United States government had been infiltrating Chinese computer systems for years. The United Nations and the European Union had also been spied on.

The great powers of the opposite bloc, the Soviet, had reached a sufficient level of security, but not the second-tier countries. Thanks to the infiltration of these communications, the United States had first-hand information about the military movements and clashes in the Middle East in 1967, both before and during the fighting itself. The invasion of Czechoslovakia in August 1968 by the Warsaw Pact, for example, did not catch the Americans by surprise. Troop movements and communications within the Warsaw Pact had already warned that something was going to happen, although CIA analysts, for the most part, did not believe the invasion that finally happened was likely.
Ultimately, crypto continued to be present in the Cold War world as it had in all of history, and even more. For much of this time, though, the ciphers seem to have defeated the cryptanalysts, and the consequences, victories or defeats, have come more from covert operations and espionage than from the force of intelligence against codes.

In 1975, with the approval of the NBS and the NSA, IBM encryption was released for the last phase in the process, its study and validation by the rest of the crypto community, that is, researchers, universities, private companies … The process finally ended four years after it started, in January 1977, when IBM’s Lucifer encryption became an encryption standard, although the name was changed to DES, Data Encryption Standard. As a standard it was, little by little it was extended to all areas and the software began to implement it as a secure storage solution, while different hardware producers implemented chips to apply DES at high speed.
Still today the controversy continues on the security of DES and on whether the NSA, which as we have seen participated in the standardization process, was able to analyze, and who knows whether to modify, the algorithm to find or prepare a back door that would allow it to break it.
An interesting and very common concept in the world of cryptography today is that many of the methods used, based on the characteristics of certain numbers, especially prime numbers, and of certain operations, are known to be vulnerable, although in the Currently they are safe. This is because the known method of breaking encryption requires a computational volume that is beyond our capabilities today. Sometimes it is doubted if it was within the reach of everyone or almost everyone. These computationally safe methods are safe today, but they will be vulnerable over time, as computers increase their computing power.
DES was not the only cryptographic algorithm available or used. Since the 1970s, hundreds of proposals of all kinds have appeared, and many of them have been widely implemented and used. In January 1997, the process of seeking a general industry standard to replace DES was repeated.
The most used and popular public key algorithm is RSA, which stands for its creators, Rivest, Shamir and Adleman. These three men were part of MIT, the Massachusetts Institute of Technology, and published their proposal in August 1977. The NSA launched a legal action against the public implementation of the RSA, which started a legal battle that paralyzed the development of the system. for a good time.
Finally, in 1982 Rivest, Shamir and Adleman created a company to exploit their idea, RSA Data Security, with which they achieved enormous business success. This type of cryptography is ubiquitous today and we use it every day, even when we don’t know what is behind the protocols and algorithms that protect our communications.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios .