El Mundo No Es Como Crees: Cómo Nuestro Mundo Y Nuestra Vida Están Plagadas De Falsas Creencias — El Orden Mundial / The World Isn’t How You Think: How Our World And Our Life Are Plagued By False Beliefs (spanish book edition)

Es un libro que se leé rápido, y es algo interesante, pero no desarrolla lo suficiente, algunos apartados son de “relleno”, tenía una expectativas mucho más altas de lo que he leído. La verdad que me esperaba mucho más, pensaba que profundizarian en temas más actuales de geopolítica, etc. De lectura rápida, para todo el público. Y en algunos capítulos, se percibe cierto “sentimiento político” o acercamiento.
* Estamos ante una obra sencilla y poco profunda, recuerda a los monográficos que venían en los especiales de Historia y Vida.
* De carácter introductorio y aconsejable para personas que tengan curiosidad sobre diversos temas de actualidad, pero que no busquen una lectura más allá de una charla coloquial, ni llegar al fondo de los asuntos que plantea.

El futuro maravilloso no solo no ha llegado, sino que parece más lejano que nunca. En cierta medida, tal vez nos hemos dado cuenta de que aquel ideal tan alcanzable era poco menos que una utopía. Cuando se están cumpliendo tres décadas desde el lanzamiento de la World Wide Web, aunque nos haya facilitado oportunidades infinitas, al mismo tiempo parece haberse convertido en uno de nuestros peores enemigos.
Por tanto, más allá de la evidencia de que no hemos alcanzado el lugar al que pensábamos llegar, cabe intentar entender por qué esto no ha ocurrido. Si los pronósticos tecno-optimistas se hubiesen cumplido, las primeras víctimas en el bando de la ignorancia habrían sido esos mitos que se llevan perpetuando durante tanto tiempo en las mentes…
No cabe engañarse: nuestro mundo y nuestra vida están plagados de falsas creencias. No es una enmienda a la totalidad de lo que hemos aprendido; tampoco una invitación a la duda permanente y la desconfianza. Se trata más bien de un intento de voladura controlada de aquellos hechos, datos o prejuicios que están asentados en muchas mentes y que son incorrectos por razones muy distintas.

Existe uno que permanece arraigado desde hace décadas y que no tiene nada de cierto: hablamos de la huelga a la japonesa.
Aunque no se conoce con exactitud cuándo surge esta creencia ni cuál es el motivo, lo cierto es que se encuentra ampliamente extendida en países como España y distintos Estados latinoamericanos. La idea de fondo de este mito es que en Japón se desarrolla un tipo de huelga específico por el cual, en vez de trabajar menos horas o directamente de no trabajar, ¡se trabaja más! Si en las huelgas «tradicionales» la finalidad es detener la producción durante más o menos tiempo para ocasionar pérdidas a la empresa y que esta acabe aceptando las demandas de los trabajadores, en Japón se consigue de otra forma. Según este mito, allí, en vez de parar la producción, se aumenta el ritmo de trabajo, lo que genera a la empresa un serio problema —y cuantiosas pérdidas— al no poder gestionar de forma adecuada el exceso de producto y tampoco su almacenaje.
El origen más probable de esta creencia se remonta al Japón de la Segunda Guerra Mundial y la conocida empresa Toyota, que ya entonces se dedicaba a fabricar vehículos.
Sin embargo, tras el final de la guerra Japón entró en una crisis económica importante, lo que impidió a Toyota vender aquel exceso de producción. Para hacer frente a esta situación, la compañía decidió despedir a una parte importante de la plantilla, y los trabajadores respondieron yendo a la huelga. Pero no «a la japonesa».
Este tipo de huelgas no existen, y lo demuestra el hecho de que ni siquiera constan registros de algún caso aislado que buscase romper con la norma en cuanto a luchas laborales en el país asiático. Y eso que durante los años setenta hubo miles de huelgas en distintos sectores de la economía nipona, especialmente la industria, y todas ellas acontecieron a la manera tradicional, con paros más o menos prolongados.
La paradoja es que, al menos en España, de tanto mencionar el mito de la huelga a la japonesa, se han llegado a producir. En 1982, distintos empleados de la Empresa Nacional Siderúrgica (ENSIDESA) llevaron a cabo una huelga a la japonesa, al igual que los farmacéuticos tres años después. Huelga decir que estas acciones no tuvieron un gran impacto en el panorama laboral.
Esta falsa creencia se cimienta, sobre todo, en la percepción tan extendida —y bastante fundamentada— de que en países como Japón, China o Corea del Sur existe una cultura del trabajo absolutamente desmedida según la cual los empleados se desviven por sus tareas hasta extremos en que su salud corre peligro. Tal es así que en japonés existe un concepto, karōshi, que significa algo así como «muerte por exceso de trabajo».

Nobel no hizo ninguna mención en su testamento o en cualquier otro momento a la economía. En las fechas en las que el creador de los premios dejó marcada su herencia, la economía era una disciplina poco investigada más allá de las tesis liberales que venían desarrollándose desde el siglo XVIII y el marxismo, que había surgido pocas décadas antes y cuya influencia estaba presionando más en el apartado politológico o sociológico y no tanto en el puramente económico. En cierta medida era un aspecto secundario para Nobel, un hombre con un carácter idealista y que veía en el progreso científico la vía más clara para el desarrollo del ser humano.
Esta herencia la dejó escrita al límite de su vida, ya que al año siguiente, en 1896, Nobel falleció. Se puso en marcha entonces la fundación que debía honrar su último gran deseo, y el siglo XX se estrenó con los nuevos premios en las cinco categorías señaladas. Para darle más empaque al asunto, cada uno de ellos sería entregado por distintas instituciones: el de Medicina, por el Instituto Karolinska; el de Física, Química y Literatura, por la Academia Sueca, y el de la Paz, por el Parlamento noruego. Durante casi siete décadas no hubo rastro del de Economía.
Sin embargo, en 1968 se fundó el llamado Nobel de Economía, cuyo nombre completo y correcto es Premio de Ciencias Económicas del Banco de Suecia en Memoria de Alfred Nobel. La excusa para este galardón era la celebración del tercer centenario de la fundación del Banco de Suecia, por lo que la institución intentó crear un premio a la altura de los Nobel, y qué mejor que hacerlo pasar por uno de ellos. No obstante, aunque de manera aparente es un Nobel más, en la práctica está financiado de manera independiente (por el mencionado banco central), lo otorga la Real Academia de las Ciencias de Suecia y se anuncia en las mismas fechas que el resto de los galardones.

China, que hoy compite en multitud de aspectos con Estados Unidos, y si consideramos que es el país más poblado del planeta, las piezas encajarían. Y sí, es cierto, los chinos están por delante de los estadounidenses. Pero no lo suficiente. ¿Has oído alguna vez hablar de Bollywood? Este término —un acrónimo formado por Bombay y Hollywood— hace referencia a la potentísima industria cinematográfica de la India, que precisamente tiene en Bombay uno de sus grandes centros productivos. No nos debería extrañar considerando que este país cuenta con más de 1.300 millones de habitantes. Sin embargo, su principal característica es que, al contrario que el cine de Hollywood, su consumo se orienta especialmente al mercado nacional, por lo que no es muy conocido fuera de las fronteras indias más allá del exotismo que puede despertar. Aun así, en el año 2016 Bollywood produjo el triple de películas que Hollywood, siendo la India el primer país que más cintas aporta a la filmografía mundial. Detrás del país asiático se sitúa China —cuya industria no tiene ningún nombre con relumbrón— y, ahora sí, Estados Unidos.
No obstante, todavía existe una incógnita respecto al peso cinematográfico estadounidense que los datos, al menos de forma actualizada, no esclarecen. En el año 2011 hubo otro país que superó a Estados Unidos en cuanto a producción de películas, pero que desde entonces no ha aportado más cifras. Su industria se la conoce como Nollywood —la originalidad de los nombres no es abrumadora en el mundo del cine— y el país de origen, Nigeria. Porque, efectivamente, en el año 2011 Nigeria era el segundo país del mundo que más películas lanzaba por detrás de la India y por delante de Estados Unidos y China. La característica particular que tiene Nollywood es que no se trata de una industria propiamente dicha, con multitud de directores consagrados o grandes productoras que financian los proyectos, sino que en muchos casos se trata de un cine casi amateur que suele ser autoproducido. Sin embargo, lo de hacer películas se ha vuelto tan popular en Nigeria durante los últimos años que, a efectos de producción, ha acabado desbancando al propio Estados Unidos.

Los tres países que más té consumen al año por habitante son Turquía, Irlanda y el Reino Unido. Es paradójico que Irlanda, que quizá sea más conocida por la cerveza o el whisky, consuma más té que los propios británicos. Sea como fuere, en esta clasificación hay un gran matiz: esos son los países que más té consumen, pero no los que más infusiones. Porque aquí entra en liza otro producto enormemente popular en Sudamérica y que se parece al té al menos en una parte del nombre: el mate. Esta bebida, que poco tiene que ver con el té más que en hervir las hojas de una planta, arrasa en lugares como Argentina, Uruguay o Paraguay. Hasta tal punto es así que Turquía, primer consumidor mundial de té por habitante y año, lo hace a razón de unos tres kilos, pero si añadimos las infusiones nos encontramos que en Paraguay esta cifra se eleva hasta los doce, en Uruguay hasta casi los diez y en Argentina hasta los seis, frente a unos británicos que consumen apenas dos kilos por persona y año.
Por tanto, tal vez desde el Reino Unido nos hayan hecho creer que el té es lo más británico que existe, pero a ellos no les gusta tanto, al contrario que en otras zonas del mundo donde la veneración por las infusiones es absoluta.

Tal es el número de «volunturistas» que existen actualmente que ya se ha organizado todo un negocio alrededor. Son muchas las organizaciones dedicadas a gestionar este tipo de viajes y así lograr que alguien que quiere ayudar pueda encontrar un proyecto que satisfaga sus inquietudes y se ajuste a su presupuesto. De igual manera, también son muchas las personas que han visto en el ámbito de la buena voluntad un negocio redondo. Como uno de los destinos preferidos de los voluntarios son los orfanatos, en muchos países asiáticos se han empezado a crear instituciones de orfandad y hasta huérfanos «artificiales»; una organización que quiere obtener un jugoso rédito económico de las donaciones y aportaciones de los voluntarios puede dedicarse a ofrecer a familias extremadamente pobres una suma importante de dinero por un hijo pequeño al que cuidar en el orfanato. Es su inversión.
Todo lo dicho hasta ahora no es una crítica a las labores de voluntariado. Sin duda son necesarias. Pero en muchos aspectos se han difuminado de manera imperceptible con un negocio, y se aprovecha tanto de la precaria situación en muchas partes del mundo como de las necesidades de los que desean ayudar para sentirse realizados. Asimismo, el volunturismo también es una consecuencia directa de la precariedad en el mundo de la cooperación y de la poca importancia que estos asuntos tienen en la agenda política.

La reducción de la pobreza en nuestro planeta ha sido, durante el último cuarto de siglo, espectacular. Si en 1990 algo más de un tercio de la población mundial (1.900 millones de personas) vivía en condiciones de extrema pobreza, hoy son alrededor de 650 millones. Si hace treinta años algo más de 1.500 millones de esas personas extremadamente pobres vivían en el continente asiático (especialmente el sur y el este), hoy suman alrededor de 100 millones. Y es que en lo que va de siglo esta variable se ha desplomado y va camino de la desaparición. Así, y con la única excepción del África subsahariana, en las próximas décadas la extrema pobreza en el resto de las regiones del planeta puede ser prácticamente testimonial.
No obstante, tampoco conviene lanzar las campanas al vuelo. Si la pobreza extrema supone vivir al día con menos de 1,90 dólares en paridad de poder de compra, existen más estratos de pobreza que alcanzan hasta los 5,50 dólares al día. En todo ese intervalo se acumula casi la mitad de la población mundial, mientras que un 35 % se considera que tiene unos estándares de vida acomodados al vivir con más de 10 dólares cada jornada. Hay que tener en cuenta que toda esa gente (cientos de millones de personas) que salen de la pobreza extrema se suman a estratos algo superiores aunque todavía pobres, por lo que se puede tardar décadas o siglos en que una sustancial mayoría de la población no viva en situación de necesidad.

Mitos ampliamente extendidos sin ningún tipo de base científica. Uno de los más populares es que las largas noches que se dan parte del año en el círculo polar ártico tienen un impacto directo en el ánimo de la gente que vive por la zona. Esta situación, en el caso de países como Islandia, Noruega, Suecia, Dinamarca o Finlandia, explicaría que las tasas de suicidio fueran mucho más elevadas que en otras partes de Europa con más horas de sol, como los países mediterráneos. Así, la luz natural sería un factor determinante en esta cuestión. Pero lo cierto es que no. O, al menos, no de la forma que expone el mito. Groenlandia es uno de los territorios con mayor índice.
Lo cierto es que el suicidio es un fenómeno extremadamente complejo en el que convergen multitud de causas y factores de riesgo. Uno de los más importantes es el de la salud mental. Algunas investigaciones han apuntado que hasta un 98 % de las personas que se quitaron la vida presentaban algún tipo de trastorno mental, ya fuese en el comportamiento, por el abuso de sustancias o por padecer enfermedades como la esquizofrenia. Estos, a su vez, tienen una fuerte influencia de factores genéticos, aunque aquí también inciden algunos factores sociales o ambientales. Por ejemplo, existe una correlación entre las crisis económicas y las muertes por suicidio, especialmente cuando crece de manera considerable el desempleo; también se da en el género de las personas que lo cometen, ya que apenas existen países en el mundo donde las mujeres cometan más suicidios que los hombres, mientras que en el resto del planeta los suicidios masculinos duplican, triplican o incluso cuadruplican (como en Europa del Este) a los femeninos, según los datos de la OMS. Pero es que hasta los lugares donde se consume más alcohol también presentan por lo general niveles de suicidio más altos, al igual que aquellos donde hay un acceso sencillo a armas de fuego.

Los musulmanes son los creyentes del islam, una religión nacida en el siglo VII d.C. en la costa occidental de la península Arábiga. Desde allí y a lo largo de los siglos siguientes se fueron expandiendo por todo Oriente Próximo, algunas zonas de Europa, todo el norte de África, parte del África subsahariana, Asia Central e incluso el Sudeste Asiático. Hoy esta religión cuenta con más de 1.800 millones de fieles (es la segunda del planeta después del cristianismo) y tiene una presencia prácticamente global. Con todo, a lo largo de su historia ha sufrido escisiones debido a distintas interpretaciones, aunque podrían resumirse en dos corrientes principales: los suníes y los chiíes.
Los árabes, por el contrario, son un grupo etnolingüístico que gira alrededor del idioma con el mismo nombre. Por lo que se sabe en la actualidad, esta lengua, procedente de la península Arábiga, ya se hablaba fuera de ella varios siglos antes del nacimiento de Mahoma en el siglo VI, por lo que en origen no tiene una relación directa con la religión, que también nació en el mismo espacio geográfico.
Las corrientes más rigoristas del islam argumentan que la mujer también debe cubrirse el rostro en público, y el nicab es la prenda usada en este caso; no solo oculta la cabeza y el cuello, sino que también cubre gran parte del rostro, a excepción de los ojos. Además, este conjunto también se acompaña de una larga túnica que llega hasta los pies. Aunque su presencia no es extraña en el mundo musulmán, el nicab se usa más en los países de la península Arábiga, especialmente en Arabia Saudí (de hecho, procede de allí, aunque ya existiese en la época preislámica). Su uso entre las mujeres es más limitada cuanto más occidentalizado está el país, o bien si tradicionalmente ha abrazado alguna de las escuelas más moderadas del islam.
Por último tendríamos el burka. Es la prenda más rigorista, ya que ni siquiera deja a la vista los ojos, ocultos tras una rejilla para que la mujer pueda ver. Este tipo de prenda es enormemente inusual en los países musulmanes y su uso se da especialmente en Afganistán, donde sí tenía cierta tradición desde el siglo XX aunque no por cuestiones estrictamente religiosas. No obstante, con la llegada al poder de los talibanes a mediados de los años noventa, las mujeres tuvieron la obligación de llevarlo. Hoy ha quedado relegado, sobre todo, a las mujeres pastún, una de las muchas etnias que pueblan Afganistán.
Tanto el burka como el nicab han sido prohibidos en muchos países musulmanes y no musulmanes. El fondo de la cuestión tiene que ver principalmente con la seguridad.
La mutilación genital femenina es hoy una práctica que, según los cálculos de la OMS, han sufrido cerca de 200 millones de mujeres en el mundo, especialmente en el continente africano. Además de ser un ataque a los derechos más básicos del ser humano y que causa profundas secuelas físicas y psicológicas a muchas de las mujeres que lo sufren, está demostrado que los beneficios de esta práctica ascienden a la cantidad de… cero. No los tiene. Por tanto, podemos deducir que es una práctica, además de inhumana, estúpida.
Estos procedimientos se resumen en la lesión o alteración de los órganos genitales femeninos, especialmente los externos, con una finalidad que no sea de tipo médico. Este tipo de prácticas tienen en realidad un elevado componente cultural, ni siquiera religioso, sino una mera tradición local fundamentada, en muchos casos, en creencias, supersticiones o mitos sin ninguna clase de sustento empírico. Sin embargo, es tal el mito construido alrededor de estas prácticas que se ha llegado a creer que la mutilación genital femenina es algo propio del islam, pero no lo es, y tampoco es algo propio del cristianismo aunque se de en muchos países cristianos.

Nunca ha habido un botón nuclear. Pensemos sobre todo en la inseguridad que supone: un botón es sencillo de pulsar accidentalmente, aunque esté protegido por una caja de cristal o similar, o en un arrebato de impulsividad. Así pues, los países que disponen de armas atómicas en sus arsenales se las han ingeniado para tener sistemas relativamente rápidos de accionar en caso de necesidad, pero, al mismo tiempo, lo suficientemente seguros para que un arranque de ira o un descuido no nos lleve a una guerra nuclear.
Lo innegable del caso es que la idea del botón nuclear existe en muchas mentes gracias al cine y la televisión.
Lo primero que se necesita para lanzar un ataque nuclear es el dispositivo que lo active. En la Casa Blanca esa tarea recae en un militar que acompaña a todas partes al presidente cargando una pesada bolsa. En ella, además del mecanismo necesario para ordenar el lanzamiento de las armas nucleares, hay varios documentos que informan sobre el arsenal nuclear estadounidense y el número de víctimas que ese ataque puede ocasionar. Asimismo, por si hubiese una respuesta del enemigo, especifica una serie de lugares donde el mandatario y su familia pueden refugiarse del previsible holocausto nuclear. Pero aquí entra en juego otro elemento clave: «la galleta». El presidente lleva siempre consigo una tarjeta, que recibe ese curioso nombre, con los códigos para confirmar su identidad cuando quiera lanzar los misiles. Una vez el proceso se ha completado, los misiles están listos para ser lanzados.

Hoy Suiza parece haberse olvidado de las armas nucleares (de hecho, ha firmado numerosos acuerdos para la desnuclearización del planeta), pero la lógica de estar armados hasta los dientes para disuadir a los vecinos de una invasión no ha desaparecido. Una de las prerrogativas del servicio militar helvético es que los reclutas pueden llevarse su arma reglamentaria a casa una vez hayan servido el tiempo necesario. El resultado es que, según la organización Small Arms Survey, en el país helvético hay entre 3,4 y 2,33 millones de armas de fuego en los hogares, o lo que es lo mismo, que aproximadamente entre un 50 y un 27 % de los suizos tienen un arma, lo que convertiría al país en el tercero más armado del mundo por habitante después de Estados Unidos y Yemen.
En cuanto a la neutralidad, no se puede negar que existe un debate abierto entre la sociedad helvética, y que ellos mismos han ido suavizando su premisa inicial con el paso del tiempo. La lógica de la que partían en el siglo XIX era la de que Suiza sería neutral si no tomaba parte en ningún conflicto o disputa que surgiese. En un mundo donde las relaciones entre Estados se limitaban a guerrear o a comerciar unos con otros, era bastante sencillo mantener esa postura.

En la actualidad, la mayoría de la gente en el mundo vive en regímenes democráticos, sobre todo gracias al peso poblacional que tiene la India, pero una proporción sustancial de los habitantes del planeta lo hacen también en estos regímenes híbridos. Y lo cierto es que en muchos aspectos es un estatus algo cotizado, especialmente bajo las lógicas personalistas y nacional-populistas que están cobrando fuerza en el mundo actual, ya que permite tener rasgos democráticos —lo que evita críticas contundentes de ser una dictadura— al tiempo que posibilita llevar a cabo determinadas políticas que refuercen el poder establecido, a determinados presidentes o incluso a partidos políticos concretos. Los matices del gris nunca tuvieron tanta importancia en nuestro mundo.
La influencia rusa es hoy muchísimo menor a la que tuvo la Unión Soviética en su día. Sin embargo, mantenemos unos esquemas mentales similares a los de hace décadas, dotándole a Rusia de un poder que no tiene. La victoria de Trump en Estados Unidos, la crisis en Cataluña, el Brexit, el auge de formaciones nacional-populistas (el AfD en Alemania, el Frente Nacional en Francia, la Liga en Italia) o de izquierdas (Syriza en Grecia o Podemos en España) responden a factores propios de cada país, no a una calculada estrategia diseñada en el Kremlin, da igual que esas coyunturas le beneficien en menor o mayor medida. Tengámoslo claro: la época de la Guerra Fría ya pasó.

Han sido muchos los análisis y las declaraciones de políticos de toda condición que han apuntado a que la COVID-19, como pandemia mundial, se trataba de un fenómeno absolutamente impredecible, por lo que no había manera de estar preparados ante los retos sanitario, económico, político y social que ha supuesto en buena parte del planeta. Sin embargo, la realidad es que todo tipo de organismos, Gobiernos y entidades tenían prevista una epidemia de alcance mundial desde hacía muchos años.
En el año 2007, el informe del Foro Económico Global, que precede a la cumbre celebrada en la localidad suiza de Davos cada mes de enero, planteaba, en su espacio dedicado a los riesgos que mayor impacto podían tener en el mundo aquel año, un escenario ficticio que tenía algo de profético visto lo visto hoy en día: se imaginaba que a principios del 2008 saltaban las alarmas sobre un nuevo virus en China con pocas similitudes con enfermedades conocidas anteriormente. No obstante, sí se apuntaba a que su origen podía ser animal y que de alguna forma se había contagiado a los humanos. Aunque no parecía tener una mortalidad elevada, su capacidad de propagación era asombrosamente alta. Este factor, unido a los vuelos internacionales, hacía que a los pocos meses comenzasen a aparecer casos en otros países asiáticos o incluso europeos. Poco a poco la epidemia se convertía en pandemia, y para finales de aquel año 2008 ese desconocido virus se había cobrado un millón de vidas en todo el planeta.
El presidente estadounidense George W. Bush (20012009), que llegó al poder poco antes de los ataques del 11 de septiembre, desarrolló, unos pocos años más tarde, varias estrategias relacionadas con las enfermedades infecciosas, gripes incluidas. Tal era la relevancia que en el 2005 se publicó un documento titulado «Estrategia de Seguridad Nacional para una pandemia de gripe», donde se recogían frases que bien podrían pasar como escritas en el 2020 o en tiempos muy recientes.
Tras Obama llegaría Donald Trump, el presidente que ha tenido que lidiar con la epidemia durante el último año de su primer mandato. Él gozaba de una ventaja, que era conocer todos los antecedentes que sus predecesores habían tenido que enfrentar, así como el contexto internacional, cada vez más proclive a favorecer brotes epidémicos. La estrategia de seguridad nacional desarrollada en el 2017, durante su primer año de mandato, no reservaba demasiado espacio a la amenaza de las pandemias, aunque sí el suficiente para lanzar un mensaje bien claro: «Las amenazas biológicas a Estados Unidos —sean el resultado de un ataque deliberado, de un accidente o de un brote natural— están creciendo y requieren de acciones para abordarlas en su origen».
En julio del 2019, el Centro para la Prevención y el Control de Enfermedades (CDC, por sus siglas en inglés) retiró a su principal enlace en China, la doctora Linda Quick, sin enviar ningún sustituto. Estados Unidos perdía, epidemiológicamente hablando, sus ojos en el país asiático, un factor que apenas unos meses más tarde se revelaría fundamental tanto por la opacidad china en la gestión del virus como por la respuesta estadounidense a este.
El Consejo de Seguridad Nacional esquematizó las principales amenazas que enfrentaba el Reino Unido y las dividió en tres grupos teniendo en cuenta la probabilidad de que ocurriesen, así como su impacto en un sentido amplio, durante los siguientes cinco años. El primer grupo correspondería a las amenazas más acuciantes, que dejaban a los otros dos como asuntos secundarios y terciarios, respectivamente. En ese conjunto principal, llamado Tier 1, se incluyeron las amenazas relacionadas con la salud pública. El propio informe no las pudo sintetizar mejor: «Las enfermedades, especialmente la gripe pandémica, nuevas enfermedades infecciosas y la creciente resistencia microbiana, amenazan nuestras vidas y causan enormes disrupciones en los servicios y la economía. La vulnerabilidad del Reino Unido a estos factores se incrementa por nuestra cuantiosa población y nuestra sociedad abierta». En definitiva, una sociedad basada en densos entornos urbanos, con millones de desplazamientos internacionales y muy dependiente de los intercambios con el resto del mundo estaba extremadamente expuesta a brotes epidémicos en cualquier lugar del globo.
España también anticipaba las pandemias como una amenaza considerable y muy a tener en cuenta. Así se apuntaba en la «Estrategia de Seguridad Nacional» del año 2017, elaborada durante el Gobierno de Mariano Rajoy y que venía a suceder a las dos anteriores, de los años 2011 y 2013. El documento de La Moncloa era, en comparación con las estrategias de los países antes mencionados, el que mayor atención prestaba a la cuestión pandémica, haciendo un pormenorizado análisis de la exposición que presentaba España a este tipo de riesgos por ser uno de los países del mundo que más turistas recibe (casi 84 millones en el 2019).
Con lo que sí contaba España era con un Plan Nacional de Preparación y Respuesta ante una Pandemia de Gripe. Su gran debilidad es que era del año 2005, cuando fue elaborado en el contexto de la gripe aviar bajo las recomendaciones de la OMS.
En consecuencia, podemos concluir que las alertas de que algo así podía ocurrir eran numerosas y estaban bien documentadas, lejos de un alarmismo innecesario o injustificado. Sin embargo, quienes tenían que decidir emprender políticas para paliar su futuro impacto hicieron oídos sordos; asimismo, estos avisos tampoco llegaron a la opinión pública. Sin que nadie se diese cuenta, los agujeros del queso se fueron alineando. Y ocurrió el accidente.

Lo que sí va a ocurrir es que esta pandemia va a modificar el rumbo de la globalización. En tanto que es un proceso vivo, las agendas políticas o económicas del momento, así como las mejoras tecnológicas, marcan un rumbo u otro para las relaciones existentes. Como es evidente, una pandemia a nivel planetario que ha llevado a cientos de millones de habitantes a ser confinados en sus hogares y a que prácticamente todos los países del mundo entren en recesión en los próximos meses según las previsiones del Fondo Monetario Internacional, es un suceso lo suficientemente importante para que muchas de esas conexiones cambien de dirección o desaparezcan (pensemos, por ejemplo, en el aumento del desempleo o en las empresas que van a cerrar). En este sentido es probable que al impacto del coronavirus se le empiecen a atribuir algunos sucesos venideros y que parezcan corregir la marcha que llevaba la globalización. Sin embargo, esto sería quedarnos muy cortos en el diagnóstico.
Aun así, el mayor obstáculo para conocer de manera fidedigna cómo se produjo este brote no es la falta de datos en sí misma, sino las trabas humanas, en concreto las que China parece estar poniendo. Hoy sabemos que el paciente uno —no el que se contagió en el mercado, sino el que fue contagiado por ese desconocido paciente cero— tenía coronavirus a mediados del mes de noviembre. Pekín tardó más de un mes en dar la alarma, cuando, previsiblemente, ya se habrían producido cientos o miles de contagios. También sabemos que los primeros médicos que avisaron de que el virus al que se enfrentaban no era como los demás fueron desoídos; alguno, incluso, fue víctima de la propia COVID-19. Esta laxitud en abordar el brote inicial por parte de las autoridades ha llevado a especular con que la cifra oficial de fallecimientos anunciada por China esté muy por debajo de la cifra real, aunque esto en ningún caso se ha podido confirmar. De igual manera, las peticiones internacionales para que se elabore una investigación independiente que esclarezca el origen y el alcance inicial de la pandemia se han encontrado con fuertes reticencias por parte del Gobierno chino.
La gran diferencia que hoy observamos con el SARSCov-2 es que, aunque guarda similitudes con la gripe, no es exactamente igual. En primer lugar, el coronavirus es mucho más contagioso a niveles que pueden duplicar o triplicar la capacidad de contagio que tienen los distintos subtipos de gripe; también posee una tasa de mortalidad superior, ya que por lo que se ha ido conociendo en los meses de pandemia, la COVID-19 no es solo un virus que ataca al sistema respiratorio, sino que también intenta golpear en otros sistemas del cuerpo humano, como el circulatorio; y, sobre todo, es un virus desconocido, lo que ralentiza no solo una correcta toma de decisiones para paliar sus efectos, sino también una vacuna que sirva para detener los contagios.

—————

It’s a book that is read quickly, and it is something interesting, but it does not develop enough, some sections are “filler”, I had much higher expectations than what I have read. The truth was that I expected much more, I thought they would delve into more current issues of geopolitics, etc. Fast reading, for all the public. And in some chapters, there is a certain “political sentiment” or rapprochement.
* This is a simple and shallow work, reminiscent of the monographs that came in the History and Life specials.
* Introductory and advisable for people who are curious about various current issues, but who do not seek a reading beyond a colloquial talk, or get to the bottom of the issues raised.

The wonderful future has not only not arrived, but it seems more distant than ever. To some extent, perhaps we have come to realize that such an achievable ideal was nothing short of a utopia. Three decades have passed since the launch of the World Wide Web, although it has provided us with endless opportunities, at the same time it seems to have become one of our worst enemies.
Therefore, beyond the evidence that we have not reached the place we thought we would be, it is worth trying to understand why this has not happened. If the techno-optimistic predictions had been fulfilled, the first victims on the side of ignorance would have been those myths that have been perpetuated for so long in minds …
Make no mistake about it: our world and our lives are full of false beliefs. It is not an amendment to all of what we have learned; nor is it an invitation to permanent doubt and mistrust. Rather, it is an attempted controlled blasting of those facts, data or prejudices that are settled in many minds and that are incorrect for very different reasons.

There is one that has been ingrained for decades and is not at all true: we are talking about the Japanese strike.
Although it is not known exactly when this belief arises or what the reason is, the truth is that it is widely spread in countries such as Spain and different Latin American states. The underlying idea of this myth is that in Japan a specific type of strike takes place whereby, instead of working fewer hours or not working directly, you work more! If in “traditional” strikes the purpose is to stop production for more or less time to cause losses to the company and that it ends up accepting the workers’ demands, in Japan it is achieved in another way. According to this myth, there, instead of stopping production, the pace of work is increased, which generates a serious problem for the company – and considerable losses – by not being able to adequately manage excess product and not its storage.
The most likely origin of this belief dates back to World War II Japan and the well-known Toyota company, which was already manufacturing vehicles at that time.
However, after the end of the war, Japan entered a major economic crisis, which prevented Toyota from selling that excess production. To cope with this situation, the company decided to lay off a significant part of the workforce, and the workers responded by going on strike. But not “Japanese.”
These types of strikes do not exist, and it is demonstrated by the fact that there are not even records of an isolated case that sought to break the norm regarding labor struggles in the Asian country. And that during the seventies there were thousands of strikes in different sectors of the Japanese economy, especially industry, and all of them took place in the traditional way, with more or less prolonged work stoppages.
The paradox is that, at least in Spain, from so much mentioning the myth of the Japanese-style strike, they have come to be produced. In 1982, different employees of the National Steel Company (ENSIDESA) carried out a Japanese strike, as did the pharmacists three years later. Needless to say, these actions did not have a major impact on the employment landscape.
This false belief is based, above all, on the widespread – and quite well founded – perception that in countries such as Japan, China or South Korea there is an absolutely excessive work culture according to which employees go out of their way to do their jobs to the extreme. that their health is in danger. So much so that in Japanese there is a concept, karōshi, which means something like “death from overwork”.

Nobel made no mention in his will or at any other time to economics. At the time when the creator of the awards left his heritage marked, economics was a discipline little investigated beyond the liberal theses that had been developing since the 18th century and Marxism, which had emerged a few decades before and whose influence was pressing more on the political or sociological section and not so much on the purely economic one. To a certain extent it was a secondary aspect for Nobel, a man with an idealistic character and who saw in scientific progress the clearest path for the development of the human being.
This inheritance was left written at the limit of his life, since the following year, in 1896, Nobel passed away. The foundation that was to honor his last great wish was then launched, and the 20th century opened with the new awards in the five indicated categories. To give more packaging to the matter, each one of them would be delivered by different institutions: Medicine, by the Karolinska Institute; that of Physics, Chemistry and Literature, by the Swedish Academy, and that of Peace, by the Norwegian Parliament. For almost seven decades there was no trace of the Economy.
However, in 1968 the so-called Nobel Prize in Economics was founded, whose full and correct name is the Bank of Sweden Prize in Economic Sciences in Memory of Alfred Nobel. The excuse for this award was the celebration of the third centenary of the founding of the Bank of Sweden, so the institution tried to create a prize at the height of the Nobel, and what better than to pass it off as one of them. However, although it is apparently just another Nobel, in practice it is independently funded (by the aforementioned central bank), awarded by the Royal Swedish Academy of Sciences and announced on the same dates as the rest of the awards.

China, which today competes in many aspects with the United States, and if we consider that it is the most populated country on the planet, the pieces would fit. And yes, it is true, the Chinese are ahead of the Americans. But not enough. Have you ever heard of Bollywood? This term – an acronym formed by Bombay and Hollywood – refers to the extremely powerful Indian film industry, which precisely has one of its major production centers in Bombay. It should not surprise us considering that this country has more than 1,300 million inhabitants. However, its main characteristic is that, unlike Hollywood cinema, its consumption is especially oriented to the national market, so it is not well known outside the Indian borders beyond the exoticism that it can arouse. Even so, in 2016 Bollywood produced three times as many films as Hollywood, with India being the first country that contributes the most films to world filmography. Behind the Asian country is China – whose industry does not have a flashy name – and, now, the United States.
However, there is still an unknown regarding the American cinematographic weight that the data, at least in an updated way, does not clarify. In 2011 there was another country that surpassed the United States in terms of film production, but since then it has not provided more figures. His industry is known as Nollywood – the originality of the names is not overwhelming in the world of cinema – and the country of origin, Nigeria. Because, indeed, in 2011 Nigeria was the second country in the world that released the most films, behind India and ahead of the United States and China. The particular characteristic of Nollywood is that it is not an industry as such, with a multitude of established directors or large production companies that finance the projects, but in many cases it is an almost amateur cinema that is usually self-produced. However, filmmaking has become so popular in Nigeria in recent years that, for production purposes, it has ended up ousting the United States itself.

The three countries that consume the most tea per year per inhabitant are Turkey, Ireland and the United Kingdom. It is paradoxical that Ireland, which is perhaps best known for beer or whiskey, consumes more tea than the British themselves. Be that as it may, there is a great nuance in this classification: these are the countries that consume the most tea, but not the countries that consume the most infusions. Because here comes another hugely popular product in South America that is similar to tea in at least part of the name: mate. This drink, which has little to do with tea other than boiling the leaves of a plant, sweeps places like Argentina, Uruguay or Paraguay. To such an extent that Turkey, the world’s leading consumer of tea per inhabitant and year, does so at a rate of about three kilos, but if we add the infusions we find that in Paraguay this figure rises to twelve, in Uruguay to almost twelve. ten and in Argentina up to six, compared to some British who consume just two kilos per person per year.
Therefore, perhaps from the United Kingdom they have made us believe that tea is the most British thing that exists, but they do not like it so much, unlike in other areas of the world where the veneration for infusions is absolute.

Such is the number of “voluntourists” that currently exist that a whole business has already been organized around it. There are many organizations dedicated to managing this type of trip and thus ensuring that someone who wants to help can find a project that satisfies their concerns and fits their budget. In the same way, there are also many people who have seen a great deal in the field of goodwill. As one of the preferred destinations for volunteers is orphanages, many Asian countries have begun to create orphan institutions and even “artificial” orphans; An organization that wants to make a healthy profit from the donations and contributions of volunteers can dedicate itself to offering extremely poor families a significant sum of money for a young child to care for in the orphanage. It is your investment.
Everything said so far is not a criticism of volunteer work. They are certainly necessary. But in many ways they have been imperceptibly blurred with a business, and it takes advantage of both the precarious situation in many parts of the world and the needs of those who want to help to feel fulfilled. Likewise, voluntourism is also a direct consequence of the precariousness in the world of cooperation and the little importance that these issues have on the political agenda.

The reduction of poverty on our planet has been, during the last quarter of a century, spectacular. If in 1990 just over a third of the world population (1.9 billion people) lived in extreme poverty, today there are around 650 million. If thirty years ago just over 1.5 billion of these extremely poor people lived on the Asian continent (especially South and East), today they number around 100 million. And it is that so far this century this variable has collapsed and is on the way to disappearance. Thus, and with the sole exception of sub-Saharan Africa, in the coming decades extreme poverty in the rest of the planet’s regions can be practically testimonial.
However, it is not advisable to throw the bells on the fly. If extreme poverty means living a day on less than $ 1.90 in purchasing power parity, there are more strata of poverty that reach up to $ 5.50 a day. Throughout this interval, almost half of the world’s population accumulates, while 35% are considered to have comfortable living standards by living on more than 10 dollars each day. It must be taken into account that all these people (hundreds of millions of people) who come out of extreme poverty join somewhat higher strata although still poor, so it can take decades or centuries before a substantial majority of the population does not live in need.

Widespread myths without any scientific basis. One of the most popular is that the long nights that occur part of the year in the Arctic Circle have a direct impact on the spirits of the people who live in the area. This situation, in the case of countries such as Iceland, Norway, Sweden, Denmark or Finland, would explain why suicide rates were much higher than in other parts of Europe with more hours of sunshine, such as Mediterranean countries. Thus, natural light would be a determining factor in this matter. But the truth is that no. Or at least not in the way the myth exposes. Greenland is one of the territories with the highest index.
The truth is that suicide is an extremely complex phenomenon in which a multitude of causes and risk factors converge. One of the most important is that of mental health. Some research has pointed out that up to 98% of the people who took their own lives had some type of mental disorder, either in behavior, due to substance abuse or due to diseases such as schizophrenia. These, in turn, are strongly in fl uenced by genetic factors, although some social or environmental factors also play a role here. For example, there is a correlation between economic crises and suicide deaths, especially when unemployment grows considerably; It also occurs in the gender of the people who commit it, since there are hardly any countries in the world where women commit more suicides than men, while in the rest of the planet male suicides double, triple or even quadruple (as in Eastern Europe) to women, according to WHO data. But it is that even the places where more alcohol is consumed also generally have higher levels of suicide, as well as those where there is easy access to firearms.

Muslims are the believers of Islam, a religion born in the 7th century AD. on the western coast of the Arabian peninsula. From there and over the following centuries they expanded throughout the Middle East, some areas of Europe, all of North Africa, part of sub-Saharan Africa, Central Asia and even Southeast Asia. Today this religion has more than 1,800 million faithful (it is the second on the planet after Christianity) and has a practically global presence. However, throughout its history it has suffered splits due to different interpretations, although they could be summarized in two main currents: the Sunnis and the Shiites.
The Arabs, on the other hand, are an ethnolinguistic group that revolves around the language with the same name. From what is known today, this language, coming from the Arabian peninsula, was already spoken outside of it several centuries before the birth of Muhammad in the 6th century, so it does not originally have a direct relationship with religion, which was also born in the same geographic space.
The most rigorous currents of Islam argue that women should also cover their faces in public, and the nicab is the garment used in this case; not only hides the head and neck, but also covers a large part of the face, except for the eyes. In addition, this set is also accompanied by a long tunic that reaches the feet. Although its presence is not strange in the Muslim world, the nicab is used more in the countries of the Arabian peninsula, especially in Saudi Arabia (in fact, it comes from there, although it already existed in pre-Islamic times). Its use among women is more limited the more westernized the country is, or if it has traditionally embraced one of the more moderate schools of Islam.
Finally we would have the burqa. It is the most rigorous garment, since it does not even expose the eyes, hidden behind a grid so that the woman can see. This type of garment is enormously unusual in Muslim countries and its use occurs especially in Afghanistan, where it did have a certain tradition since the 20th century, although not for strictly religious reasons. However, with the coming to power of the Taliban in the mid-1990s, women had an obligation to carry it. Today it has been relegated, above all, to Pashtun women, one of the many ethnic groups that populate Afghanistan.
Both the burqa and the nicab have been banned in many Muslim and non-Muslim countries. The bottom line has to do primarily with security.
Female genital mutilation is today a practice that, according to WHO estimates, nearly 200 million women have suffered in the world, especially on the African continent. In addition to being an attack on the most basic rights of the human being and causing profound physical and psychological consequences to many of the women who suffer it, it has been shown that the benefits of this practice amount to… zero. Does not have them. Therefore, we can deduce that it is a practice, in addition to being inhumane, stupid.
These procedures are summarized in the injury or alteration of the female genital organs, especially the external ones, with a purpose that is not of a medical nature. This type of practice actually has a high cultural component, not even a religious one, but a mere local tradition based, in many cases, on beliefs, superstitions or myths without any kind of empirical support. However, such is the myth built around these practices that it has come to be believed that female genital mutilation is something typical of Islam, but it is not, and it is not something typical of Christianity, although it occurs in many Christian countries.

There has never been a nuclear button. Let’s think above all about the insecurity that it implies: a button is easy to accidentally press, even if it is protected by a glass case or similar, or in a fit of impulsiveness. Thus, the countries that have atomic weapons in their arsenals have managed to have relatively quick systems to actuate in case of need, but, at the same time, safe enough so that an outburst of anger or carelessness does not take us away. to a nuclear war.
What is undeniable in the case is that the idea of the nuclear button exists in many minds thanks to film and television.
The first thing that is needed to launch a nuclear attack is the device that activates it. In the White House, this task falls to a military man who accompanies the president everywhere carrying a heavy bag. In it, in addition to the necessary mechanism to order the launch of nuclear weapons, there are several documents that report on the US nuclear arsenal and the number of victims that this attack can cause. Likewise, in case there is a response from the enemy, specify a series of places where the president and his family can take refuge from the foreseeable nuclear holocaust. But here another key element comes into play: “the cookie.” The president always carries a card with him, which receives that curious name, with the codes to con fi rm his identity when he wants to launch the missiles. Once the process is complete, the missiles are ready to be launched.

Today Switzerland seems to have forgotten about nuclear weapons (in fact, it has signed numerous agreements for the denuclearization of the planet), but the logic of being armed to the teeth to dissuade its neighbors from an invasion has not disappeared. One of the prerogatives of Swiss military service is that recruits can take their service weapon home with them once they have served the required time. The result is that, according to the Small Arms Survey organization, in the Swiss country there are between 3.4 and 2.33 million firearms in homes, or what is the same, that approximately between 50 and 27% of the Swiss have a weapon, which would make the country the third most armed in the world per inhabitant after the United States and Yemen.
As for neutrality, it cannot be denied that there is an open debate among Swiss society, and that they themselves have softened their initial premise over time. The logic from which they started in the 19th century was that Switzerland would be neutral if it did not take part in any conflict or dispute that arose. In a world where relations between states were limited to war or trade with one another, it was quite easy to maintain that position.

At present, the majority of the people in the world live in democratic regimes, mainly thanks to the population weight that India has, but a substantial proportion of the planet’s inhabitants do so in these hybrid regimes as well. And the truth is that in many aspects it is a somewhat sought-after status, especially under the personalist and national-populist logics that are gaining strength in today’s world, since it allows for democratic features – which avoids forceful criticism of being a dictatorship – when time that makes it possible to carry out certain policies that reinforce the established power, certain presidents or even specific political parties. The shades of gray have never been so important in our world.
The Russian in fl uence today is far less than that of the Soviet Union in its day. However, we maintain mindsets similar to those of decades ago, endowing Russia with a power it does not have. Trump’s victory in the United States, the crisis in Catalonia, Brexit, the rise of national-populist formations (the AfD in Germany, the National Front in France, the League in Italy) or of the left (Syriza in Greece or Podemos in Spain) respond to factors specific to each country, not to a calculated strategy designed in the Kremlin, it does not matter whether these situations benefit it to a lesser or greater extent. Let’s be clear: the Cold War era is over.

There have been many analyzes and statements by politicians from all walks of life who have pointed out that COVID-19, as a global pandemic, was an absolutely unpredictable phenomenon, so there was no way to be prepared for the health and economic challenges , political and social that has meant in much of the planet. However, the reality is that all kinds of organizations, governments and entities had foreseen a worldwide epidemic for many years.
In 2007, the report of the Global Economic Forum, which precedes the summit held in the Swiss town of Davos every January, raised, in its space dedicated to the risks that could have the greatest impact on the world that year, a fictitious scenario that had something prophetic seen today: it was imagined that in early 2008 alarms were going off about a new virus in China with few similarities to previously known diseases. However, it was pointed out that its origin could be animal and that it had somehow been infected to humans. Although it did not appear to have high mortality, its ability to spread was astonishingly high. This factor, together with international flights, meant that within a few months cases began to appear in other Asian or even European countries. Little by little the epidemic turned into a pandemic, and by the end of that year 2008 this unknown virus had claimed a million lives around the planet.
US President George W. Bush (2001-2009), who came to power shortly before the September 11 attacks, developed, a few years later, several strategies related to infectious diseases, including flu. Such was the relevance that in 2005 a document entitled “National Security Strategy for a flu pandemic” was published, which included phrases that could well pass as written in 2020 or in very recent times.
After Obama would come Donald Trump, the president who has had to deal with the epidemic during the last year of his first term. He had an advantage, which was to know all the antecedents that his predecessors had had to face, as well as the international context, increasingly prone to favoring epidemic outbreaks. The national security strategy developed in 2017, during his first year in office, did not reserve too much space for the threat of pandemics, although it did allow enough space to send a very clear message: «Biological threats to the United States – be the result from a deliberate attack, an accident or a natural outbreak – are growing and require action to address them at their source.
In July 2019, the Centers for Disease Control and Prevention (CDC) recalled its main liaison in China, Dr. Linda Quick, without sending a replacement. The United States lost, epidemiologically speaking, its eyes on the Asian country, a factor that just a few months later would reveal itself to be fundamental both because of China’s opacity in managing the virus and because of the American response to it.
The National Security Council outlined the main threats facing the UK and divided them into three groups, taking into account the likelihood of their occurrence, as well as their broad impact, over the next five years. The first group would correspond to the most pressing threats, leaving the other two as secondary and tertiary issues, respectively. In that main set, called Tier 1, threats related to public health were included. The report itself could not synthesize them better: “Diseases, especially pandemic flu, new infectious diseases and growing microbial resistance, threaten our lives and cause enormous disruptions to services and the economy. The UK’s vulnerability to these factors is increased by our large population and open society. ‘ In short, a society based on dense urban environments, with millions of international movements and highly dependent on exchanges with the rest of the world was extremely exposed to epidemic outbreaks anywhere on the globe.
Spain also anticipated pandemics as a considerable threat and highly to be taken into account. This was pointed out in the “National Security Strategy” of 2017, drawn up during the Government of Mariano Rajoy and which came to succeed the previous two, in 2011 and 2013. The La Moncloa document was, in comparison with the strategies of the aforementioned countries, the one that paid the most attention to the pandemic issue, making a detailed analysis of the exposure that Spain presented to this type of risk because it is one of the countries in the world that receives the most tourists (almost 84 million in the 2019).
What Spain did have was a National Plan for Preparedness and Response to a Flu Pandemic. Its great weakness is that it was from 2005, when it was prepared in the context of avian flu under the recommendations of the WHO.
Consequently, we can conclude that the alerts that something like this could happen were numerous and well documented, far from unnecessary or unjustified alarmism. However, those who had to decide to undertake policies to mitigate its future impact turned a deaf ear; likewise, these notices did not reach the public opinion either. Without anyone noticing, the holes in the cheese lined up. And the accident happened.

What is going to happen is that this pandemic is going to change the course of globalization. As it is a living process, the political or economic agendas of the moment, as well as the technological improvements, mark one course or another for existing relationships. As is evident, a global pandemic that has led hundreds of millions of inhabitants to be confined to their homes and that practically all the countries of the world enter into recession in the coming months according to the forecasts of the International Monetary Fund, is an event important enough so that many of these connections change direction or disappear (think, for example, of rising unemployment or companies that are going to close). In this sense, it is likely that the impact of the coronavirus will begin to be attributed some upcoming events and that they seem to correct the march that globalization was leading. However, this would be a very short diagnosis.
Even so, the biggest obstacle to knowing in a reliable way how this outbreak occurred is not the lack of data itself, but the human obstacles, specifically those that China seems to be putting up. Today we know that patient one – not the one who was infected in the market, but the one who was infected by that unknown patient zero – had coronavirus in mid-November. Beijing took more than a month to raise the alarm, when, predictably, hundreds or thousands of infections would have already occurred. We also know that the first doctors who warned that the virus they were facing was not like the others were ignored; Some were even a victim of COVID-19 itself. This laxness in addressing the initial outbreak by the authorities has led to speculation that the official death toll announced by China is well below the true figure, although this has never been confirmed. Similarly, international requests for an independent investigation to clarify the origin and initial scope of the pandemic have been met with strong reluctance by the Chinese government.
The big difference that we see today with SARSCov-2 is that, although it bears similarities to the flu, it is not exactly the same. First, the coronavirus is much more contagious at levels that can double or triple the contagion capacity of the different flu subtypes; It also has a higher mortality rate, since from what has been known in the months of the pandemic, COVID-19 is not only a virus that attacks the respiratory system, but also tries to hit other systems of the human body, like the circulatory; and, above all, it is an unknown virus, which slows down not only correct decision-making to alleviate its effects, but also a vaccine that serves to stop infections.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios .