El Mito Del Algoritmo. Cuentos Y Cuentas De La Inteligencia Artificial — Richard Benjamins, Idoia Salazar / The Myth Of The Algorithm. Tales And Accounts Of Artificial Intelligence by Richard Benjamins, Idoia Salazar (spanish book edition)

9CAC3CBE-8B74-4C9B-85AB-907BD4010738
Libro muy bien escrito que facilita la comprensión de un tema que de por sí es difícil de entender para los no iniciados en el mundo de la IA. Para los iniciados, aglutina conocimiento y reseñas muy interesantes si se quiere ampliar información en la materia. Tiene una lectura agradable con opiniones de expertos nacionales e internacionales que tocan muchos de vista para que el lector se forme su propia opinión. Aclara conceptos muy complejos como la computación cuántica, la gestión de los datos masivos, o la robotización, además de dar una visión amplia de la Inteligencia Artificial. Recomendable sobre todo para los escépticos.

Unas inspiradoras palabras del genial Stephen Hawking: “La Inteligencia Artificial puede ser lo mejor o lo peor que ha sucedido en la historia de la humanidad”.
La Inteligencia Artificial (IA) existe desde los años 50 del siglo pasado, sin embargo, a partir de 2010, empezó a experimentar un rápido crecimiento motivado por la explosión del llamado Big Data : la capacidad de almacenaje de los datos, el aumento de la potencia de computación y por nuevas técnicas, como el aprendizaje profundo. Las predicciones apuntan que, en los próximos años, el desarrollo de la IA será exponencial en gran parte motivado por las enormes inversiones, tanto privada como pública, de la que disfruta esta tecnología en todo el mundo, y por las expectativas de rentabilidad y la capacidad transformadora que se atribuya a esta tecnología. Actualmente, se están invirtiendo miles de millones de dólares en el desarrollo de esta tecnología.
La evolución del machine learning (aprendizaje automático), el deep learning (aprendizaje profundo), el procesamiento de lenguaje natural (capacidad de las máquinas para procesar el lenguaje natural) y la robótica marcarán el futuro más inmediato de la Inteligencia Artificial.

Son muchos los países que en la actualidad se han mostrado contrarios a permitir ciertos grados de autonomía 1 en cuanto al desarrollo de armas letales. El marco regulatorio a este respecto es una prioridad y los criterios que se deberían aplicar parecen muy claros, todos basados en que una máquina nunca puede llegar a tener la última decisión sobre la vida y la muerte. Pero el hecho es que la industria armamentística mueve más de 1 billón y medio de dólares a nivel mundial. Es un negocio muy rentable y la IA supone una revolución tecnológica de extremo interés para este sector. Es difícil parar este desarrollo. Sin embargo, los intentos no han parado.
En verano de 2015, científicos y expertos en IA, entre los que se encontraban el astrofísico británico Stephen Hawking, el emprendedor Elon Musk, presidente de Tesla y SpaceX, y Steve Wozniak, cofundador de Apple, firmaron un manifiesto en contra de las armas autónomas.

¿Qué significa mentir? ¿Quizá simplemente no decir la verdad? Según una de las acepciones que podemos encontrar en el diccionario de la Real Academia Española (RAE), sería: “Decir o manifestar lo contrario de lo que se sabe, cree o piensa”. Por lo tanto, si nos atenemos a esta, sería una acción consciente. El ser humano sabe que “no es cierto” cuando ejerce esta acción, al menos normalmente. Los algoritmos, por el momento, no tienen consciencia del por qué realizan sus acciones. Por lo tanto, la máquina no miente. Traslademos, pues, el problema de nuevo al “humano”, que es el único que, por ahora, tiene esta peculiaridad que tratamos de exportar tan fácilmente.
La IA, por ahora, se alimenta de las bases de datos que nosotros le proporcionamos. De hecho, uno de los grandes problemas que había tenido esta tecnología para desarrollarse, desde sus inicios, en los primeros años de la década de los 50, fue la falta de datos. La expansión de Internet y sus inherentes características soluciona este problema generando un Big Data (crecimiento exponencial de los datos), que, junto con el incremento en la potencia de los ordenadores y el aumento de la capacidad de almacenaje de los datos, salvó este escollo. Sin embargo, trajo consigo nuevas dificultades. Algunos de estos datos no son veraces, aunque no se tenga consciencia de ello. Otros pertenecen a situaciones muy específicas, ya sea temporales o culturales, y, sacados de contexto, pierden su razón de ser. Los datos, de por sí, no generan conocimiento, pero sí su análisis y procesamiento. Si un eslabón, en esta cadena de proceso, está alterado, acaba afectando a su totalidad. Este es el peligro que existe en la toma de decisiones por parte los algoritmos.
Nosotros, los humanos, somos los que debemos razonar sobre las decisiones que debemos dejar en manos de la máquina. Hoy en día, en la cultura occidental, son las empresas y organizaciones las que están decidiendo qué decisiones quieren automatizar o no; es el mercado libre el que decide. Pero, en un futuro próximo, quizá la decisión pase por un organismo regulador que controle y realice una prevención real sobre un posible impacto negativo de estas tecnologías. De todas formas, en China, el gobierno marca las decisiones sobre IA.

Dado que, hoy por hoy, no es posible enseñar ética a una máquina, será a las empresas y sus desarrolladores a quienes hay que exigir que el desarrollo y el uso de la IA sean realizados de una manera ética, en concordancia con los derechos humanos internacionales. Y esto es el camino dominante que hoy en día están empujando los organismos internacionales. Trabajan en códigos éticos en Inteligencia Artificial para dirigir las actuaciones de las empresas que implementan estas tecnologías en productos y servicios.
En este sentido, en abril de 2019, la Comisión Europea presentó las líneas maestras para el desarrollo de una IA fiable y segura en la Unión Europea:
1. Supervisión humana: Los sistemas de IA deben permitir sociedades equitativas y proteger los derechos fundamentales de los humanos. No deberán disminuir o limitar la autonomía humana.
2. Robustez y seguridad: La Inteligencia Artificial requiere que los algoritmos sean lo suficientemente seguros, confiables y sólidos como para enfrentar errores o inconsistencias durante sus procesos de toma de decisiones.
3. Privacidad y gobernanza de los datos: Los ciudadanos deben de tener un control total sobre sus propios datos. Además, los datos que los conciernen no se utilizarán para perjudicarlos ni discriminarlos.
4. Transparencia: Debe garantizarse la transparencia en el proceso de toma de decisiones del sistema de Inteligencia Artificial (Explainable AI).
5. Diversidad, no discriminación y equidad: Los sistemas de AI deben considerar toda la gama de habilidades y requisitos humanos, y garantizar la accesibilidad.
6. Bienestar social y ambiental: Los sistemas de Inteligencia Artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
7. Rendición de cuentas: Deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de AI y sus resultados.

El escándalo de Cambridge Analytica dio un nuevo significado a las llamadas fake news o noticias falsas. Antes, las “noticias falsas” estaban escritas por personas que ganaban dinero con la publicidad en Internet. Habían descubierto que ciertos titulares de noticias, principalmente aquellas que incitaban al morbo o a la alarma, recibían más clics y, por tanto, más ingresos que otros. Son los llamados click-baits . Aunque impulsadas por el modelo de negocio de Internet, lo que hace pensar a algunos que quizás no es el modelo adecuado, estas falsas noticias eran lo que eran: noticias falsas. De hecho, la batalla contra el click-bait ya se está librando en la Red. En los últimos años, han surgido páginas como ClickHole, sitio web del periódico satírico The Onion , o el Twitter de “Saved You a Click”, que parodian y critican este tipo de titulares. Incluso Facebook ha modificado su algoritmo para detectarlos y combatirlos, de manera que mida el tiempo que pasa desde que el usuario hace clic en el título del artículo hasta que vuelve a la red social. Por su parte, Google también se ha comprometido con este fin.
Google y Facebook son los reyes de la publicidad online , ya que controlan más del 80-90 % del mercado. Han conseguido convertirse en las plataformas de publicidad online por defecto, usadas por muchas empresas para gestionar sus actividades de publicidad y promoción online . Y lo han hecho para poder ofrecer a sus clientes (empresas y organizaciones) el mayor alcance de usuarios a nivel mundial. Facebook tiene más de 2.000 millones de usuarios en sus plataformas (Facebook, Messenger, WhatsApp, Instagram), y los productos de Google, Chrome y Android, se usan en gran parte del planeta. Para poder usar como usuario final estos productos de Google y Facebook, es necesario aceptar que usen tus datos para publicidad. Se dice que las personas usuarias somos el producto de Google y Facebook, que venden nuestra atención a sus clientes para que prestemos atención a sus productos, servicios y mensajes. Lo cierto es que, legalmente, está todo cubierto porque hemos aceptado sus términos y condiciones descritos en gran cantidad de páginas.
Las gigantes tecnológicas (Google, Amazon, Facebook, Apple y Microsoft, las GAFAM ), con varios miles de millones de usuarios de todo el mundo, son las que concentran la mayoría de los datos que se generan. Esto conlleva varios riesgos. Cualquier fuga de datos puede tener un impacto para miles de millones de personas. Otro riesgo es que podrían dominar los servicios de IA en gran parte del mundo. Estas empresas tienen todos los datos necesarios para entrenar los algoritmos de IA, además de haber contratado a los mejores ingenieros y científicos del mundo. Como consecuencia, podrán ofrecer, a través de su nube, los mejores servicios de IA del mundo, lo que genera aún más datos y su concentración en pocos sitios.
Las empresas, sobre todo las GAFAM, tienen cada vez más información sobre nosotros por el uso que hacemos de sus productos y servicios: Apple controla IOS; Google controla Android, además de muchas apps como Google Maps, Gmail, Waze, etc.; Facebook controla Instagram, WhatsApp, Facebook y Messenger, herramientas que usamos casi cada día. Con esto son capaces de conocer nuestros intereses, dónde vivimos, dónde trabajamos, cuáles son nuestros intereses, hobbies , amigos, hasta nuestras preferencias políticas. Pero son incluso capaces de averiguar si somos compradores impulsivos, si somos fáciles de influir o si tenemos opiniones fuertes. Toda esta información se usa para hacernos recomendaciones de películas (Netflix), de productos (Amazon), personalizar nuestro muro (Facebook), sugerir con qué texto responder a un correo (Gmail), abrir el GPS con nuestro destino ya puesto (Waze), etc.

Podemos distinguir entre tres fases y actualmente estamos en la segunda fase.
• Fase I. La píldora azul: Hasta la mitad de la década 2010-2020, poca gente era consciente del mercado de los datos y cómo funcionaba el modelo de negocio de Internet.
• Fase II. El intercambio: Al principio de la década de 2020, la mayoría de los usuarios de Internet saben que pagan los servicios y apps de Internet con sus datos personales. Usan Gmail porque les conviene y además cada vez tiene funcionalidades más avanzadas basadas en la Inteligencia Artificial, como la clasificación automática de todos los correos según la importancia personal para cada usuario.
• Fase III. Sí, quiero: Esta es la última fase, aún en el futuro, donde los usuarios queremos que las empresas usen nuestros datos personales para mejorar nuestras vidas, para lo que sea. Si tienen que compartir nuestros datos con terceros, estaremos encantados de que esto pase porque mejorará nuestra vida.

En este sentido, es lógico cuestionarse si debemos renunciar a las oportunidades que nos brindan los datos para hacer el bien por la preocupación social. Creemos que, teniendo en cuenta los grandes problemas a los que nos enfrentamos como humanidad, no nos podemos permitir renunciar a ellas. Pero tampoco debemos ignorar la preocupación social. Es necesario educar a la opinión pública y a la sociedad de que se trata de datos agregados y anonimizados, que no hay un riesgo importante para la privacidad. Vuelve el tema de confianza. También para datos no personales tenemos que poder confiar en que las empresas hagan un buen uso ellos y, si los comparten con los gobiernos, que estos también hagan un uso responsable y efectivo de los datos para resolver los problemas que importan. No hacerlo sería una irresponsabilidad hacia nosotros mismos.
Pero no es un tema fácil.
La educación y la formación en nuevas tecnologías. Pero no en la técnica, sino en el impacto que pueden llegar a tener y en cómo prevenirlo. Formación a todos los niveles, desde el más joven hasta el más anciano. Más allá de las prohibiciones y las leyes, que también serán necesarias, merece la pena este esfuerzo educativo para ayudar a asumir con eficiencia los cambios tan drásticos que suponen estas tecnologías en la rutina diaria de cualquier persona.

Si analizamos el tipo de usos mal intencionados que se puede intensificar con la Inteligencia Artificial, podemos distinguir tres tipos: ataques en el ámbito de la seguridad digital (ciberataques a infraestructura crítica); ataques con impacto en la seguridad física ; y ataques a la seguridad política .
Hay distintas maneras en que la IA puede incrementar el peligro de los ciberataques, comprometiendo la seguridad digital. Con IA, se puede automatizar ataques que actualmente se hacen de manera manual, como el spear phishing . Se trata de ataques de phishing , 7 a personas selectivas y personalizados a nivel individual con nombre, dirección, etc. Actualmente, esto requiere una labor manual, pero con IA se puede automatizar e incrementar la escala de una manera significativa. También podemos esperar nuevos tipos de ataques que exploten vulnerabilidades humanas (por ejemplo, mediante el uso de síntesis de voz para la suplantación), vulnerabilidades de software existentes (por ejemplo, a través de piratería automática) o vulnerabilidades de sistemas de IA (por ejemplo, a través de ejemplos adversos y envenenamiento de datos).
Para evitar los usos mal intencionados de la IA, se pueden tomar distintas medidas. De hecho, casi todo el mal uso explicado aquí actualmente está prohibido por ley desde hace tiempo. Está prohibido sabotear una infraestructura crítica, independientemente de la tecnología que se use. Está prohibido la manipulación para influir en procesos democráticos. Está prohibido usar coches como armas en ataques terroristas. Está prohibido invadir la privacidad de las personas, a través de una vigilancia masiva con cámaras, tipo Gran Hermano, entre otras muchas cosas. La cuestión es si la IA necesita una regulación específica para evitar estos malos usos o si está ya cubierto en las leyes actuales. Si, gracias a la Inteligencia Artificial, es imposible verificar si se están cometiendo estos tipos de crímenes, quizá sea necesaria una regulación específica. Aquí también es relevante la discusión sobre HITL, HOTL y HOOTL: ¿qué autonomía permitir a las armas autónomas letales? Pero esto son sobre todo opiniones políticas, más allá de la IA en sí misma.
En definitiva, la carrera armamentística con el uso de las tecnologías de IA y robótica muy probablemente seguirá a buen ritmo en los próximos años, a pesar de los intentos internacionales por limitar su proliferación incontrolada. Tal y como han explicado algunos célebres filósofos, como Thomas Hobbes, a lo largo de la historia, cada ser humano busca su propia conservación en primer lugar, lo que da origen a la competición y a la desconfianza entre los seres humanos. “En este estado natural no existen distinciones morales objetivas, por lo que dicha competición da lugar a un estado permanente de guerra de todos contra todos, en el que cada cual se guía exclusivamente por la obtención de su propio beneficio y, no existiendo moralidad alguna, no hay más límite para la obtención de nuestros deseos que la oposición que podamos encontrar en los demás.

AlphaZero funciona en una única computadora con cuatro unidades de procesamiento de tensor (TPU, en inglés), circuitos integrados desarrollados específicamente para el aprendizaje de máquinas.
En definitiva, son ya algoritmos muy evolucionados. Debemos de tener en cuenta que estamos en los inicios del gran apogeo de la Inteligencia Artificial. En cualquier caso, por muy evolucionadas que lleguen a estar estas “máquinas”, es hora de plantearnos si realmente merece la pena seguir fomentando la competición con ellas o si ha llegado el momento de cambiar de mentalidad.
China y Estonia fueron algunos de los primeros que lanzaron estos “jueces virtuales” con Inteligencia Artificial. En concreto, el gigante asiático anunció públicamente, en 2019, un centro de litigios on line en el que un juez con voz humana, cuerpo y expresiones faciales, resuelve juicios simples, aunque, por ahora, con ayuda de jueces reales. Puede, además, aprender y analizar con extrema rapidez casos anteriores y verificar la jurisprudencia en tiempo real. Además, han desarrollado el llamado “Sistema de cadena de equilibrio”, a través del cual se puede comprobar la trazabilidad y, por tanto, la veracidad de todo el proceso de extracción y conservación de pruebas electrónicas. En cualquier caso, las autoridades que presentaron esta iniciativa también reseñaron que su uso era un complemento para mejorar la eficiencia de los jueces, no una sustitución.
Por otra parte, en Estonia, también se han puesto en funcionamiento iniciativas similares, para aquellas demandas inferiores a 7.000 euros. El funcionamiento es similar al de China y el objetivo es mejorar la eficiencia en el sistema judicial y, por tanto, su servicio a la sociedad.

Para el uso de datos personales para la elaboración y compartición de informes o estrategias por parte de organismos públicos/o privados, es obligatorio aplicar un proceso de “anonimización”, mediante el cual estos datos dejan de ser personales. El mejor ejemplo “tradicional” de esta práctica son las oficinas de estadísticas que, a partir de datos de personas y empresas concretas, elaboran informes donde no hay ningún dato individual.
En los dos últimos casos (tanto para las empresas/organismos públicos, como los privados), hay varias cuestiones principales que deben de quedar muy claras, a nivel legislativo y de normativa, si se quiere fomentar el uso de los datos y la IA tanto en épocas de bonanza, como en aquellas de crisis:
• El usuario debe de dar el consentimiento expreso para el uso de los datos personales. Debe de tener la capacidad para retirarlos cuando así lo desee.
• Ese consentimiento debe de incluir las acciones concretas que se harán con esos datos y explicitar que no serán cedidos a terceros para un uso diferente del establecido.
• En casos de “extrema necesidad” (medida definida bajo legislación o normativa específica), siempre bajo control de la autoridad pertinente, se podrán desarrollar medidas excepcionales con “el uso de los datos particulares para el bien común, que nunca excederán los límites temporales preestablecidos.
En la actualidad, las empresas que manejan datos personales de usuarios, en el caso de que los tengan que ceder para el bien social”, tienen ciertas preocupaciones que se pueden resumir en los siguientes puntos:
• Antes de que los datos salgan de la empresa, estos deben de ser anonimizados y agregados, de tal manera que la reidentificación sea imposible. Las leyes de protección de datos no se aplican a los datos no personales, por lo que compartirlos es posible. Sin embargo, desde un punto de vista puramente técnico, la anonimización al 100 % es discutible, aunque, en la práctica, es poco probable volver a identificar a los individuos.
• La Regla General de Protección de Datos (GDPR), que entró en vigor en mayo de 2018, supone para los países europeos cambios importantes en las leyes de protección de datos y de privacidad. Un cambio está relacionado con el consentimiento de las empresas, que deben pedir el consentimiento explícito e informado antes de poder utilizar los datos personales. Otro está relacionado con lo que se considera datos anónimos. En la GDPR, hay una distinción entre los datos personales, datos pseudónimos y anonimizados. Algunos de los datos que se consideran anónimos antes de la GDPR, como los datos pseudonimizados, se considerarán datos personales en el nuevo marco. Esto aumenta la primera preocupación, ya que el riesgo percibido de invasión de privacidad aumenta.
• La seguridad es siempre un tema importante para las empresas. Cuando los datos se almacenan dentro de las instalaciones de una compañía en concreto, los procedimientos de seguridad internos pueden aplicarse, según sea necesario. Sin embargo, cuando los datos salen de las instalaciones de la empresa, se pierde el control, incluso si son anonimizados y agregados.
• La última preocupación es la reputación. Una compañía que trabaja en el área de Big Data para el bienestar social y contribuye al bien común, en principio, gana una mejor reputación. Sin embargo, si algo les pasa a los datos de la empresa una vez que estos han salido de sus instalaciones, podría haber realmente un riesgo para la reputación de la misma.

La Inteligencia Artificial y el Big Data pueden ayudar en la lucha contra una pandemia de las siguientes maneras:
• Ralentizar la propagación al principio de la pandemia mediante apps para poder hacer pruebas rápidas y mapear a quienes han estado en contacto con el contagiado. Requiere datos personales.
• Entender y gestionar restricciones de movilidad a la población para evitar la propagación del virus. No requiere datos personales. Se hace con datos anonimizados y agregados.
• Predecir por dónde se propagará el virus combinando Big Data de patrones de movilidad con modelos epidemiológicos. No requiere datos personales. Se hace con datos anonimizados y agregados.
• Sistemas de aprendizaje profundo para mejorar el diagnóstico en calidad y rapidez. No requiere datos personales.
• Simulaciones con componentes químicos para encontrar aquellos que podrían frenar la infección de células del huésped. No requiere datos personales.
La crisis de COVID-19 ha intensificado la discusión entre la privacidad y el uso de los datos personales para el bien común. Por la diferencia cultural, los países asiáticos, de momento, parecen que han controlado la crisis antes usando tecnología muy intrusiva para la privacidad. Cuál de esta aproximación es mejor es una cuestión ética, no tecnológica.
Lo más importante es, respetando la ética local, que se usen todas las tecnologías posibles para frenar la propagación del coronavirus. Y esto, desafortunadamente, no ha sido el caso en esta crisis. Aún tenemos que mejorar, en este sentido.
Esperemos que la crisis sin precedentes de COVID-19, el informe del Grupo de Expertos B2G y la Estrategia Europea de Datos marquen la diferencia de cara a posibles situaciones similares en el futuro. Y que podamos ver noticias sobre pandemias, parecida a la que se expone a continuación, donde se aprecia cómo, diez años después del gran tsunami de 2004, está operativo un mejor sistema que ayuda a minimizar el impacto de estos fenómenos naturales.

Si pensamos en qué tecnologías hacen posible esta automatización de tareas, podemos destacar:
• RPA (automatización robótica de procesos): Automatización de tareas mentales simples y repetitivas.
• Asistentes digitales o virtuales: Automatización de interacción con clientes y usuarios, como Google Duplex, Alexa, Aura, Cortana, Siri, etc.
• Reconocimiento de imágenes o vídeos: Automatización de tareas que requieren identificar objetos en imágenes o vídeos para posteriormente tomar una decisión o ejecutar una acción
• Aprendizaje automático supervisado: Esta tecnología está por debajo de casi todas las tecnologías anteriores, como hemos explicado en el primer capítulo de este libro.
Simplemente decir que la Inteligencia Artificial y los robots nos van a sustituir como trabajadores es demasiado simplista. Pocos investigadores y estudios lo ven de esta manera. Hay consenso sobre que algunos trabajos desaparecerán, muchos cambiarán de naturaleza y se crearán otros nuevos que, hoy en día, no conocemos.

Los dos grandes temas tecnológicos para la toma de decisiones autónomas son los sesgos, con su posible discriminación no deseada, y la explicabilidad de los algoritmos de caja negra. Actualmente, estas dos áreas cuentan con una intensa actividad de investigación y muy probablemente, en unos cinco años, el problema técnico estará resuelto. Seremos capaces de abrir los algoritmos de caja negra para que se pueda entender cómo funcionan y cómo llegan a conclusiones específicas. También será posible evitar la discriminación contra grupos vulnerables, incluso si no hay datos disponibles al respecto en el conjunto de datos con que el algoritmo trabaja.
Aunque actualmente la Inteligencia Artificial no cuenta con una regulación horizontal, hay mucha discusión al respecto, en los gobiernos nacionales y en la Comisión Europea, sobre si es necesario o no. Ya existe legislación que prohíbe la discriminación de grupos vulnerables, la discriminación contra la raza, la convicción religiosa, etc. También existe el derecho a reclamar si un ciudadano no está de acuerdo con una decisión que le afecta, como el rechazo de una prestación social. Y la GDPR europea protege la privacidad de datos personales. La pregunta es si, con la Inteligencia Artificial, se ha vuelto imposible ejercer y controlar estas legislaciones. Tanto las empresas y las administraciones públicas que usan IA, como los reguladores y los jueces que tienen que verificar su buen uso, tienen dificultades en conseguirlo. Esto es, por un lado, debido a que se trata de una tecnología nueva que no controlan y, por otro, porque permite automatizar las decisiones a una escala que antes no se hacía. Actualmente, los candidatos para ser regulados, en el campo de la AI, son las decisiones autónomas y el reconocimiento facial en sectores y aplicaciones considerados como alto riesgo, como defensa, transporte y salud.

Las tecnologías ni son buenas ni malas. Todo depende de su uso y esto depende de las personas. Nosotros, en este momento de la Historia, aún podemos guiar nuestro destino hacia un camino u otro. De nuestras decisiones de ahora dependerá nuestro futuro. Sin embargo, aunque la intención sea buena, siempre puede haber consecuencias no previstas con un impacto negativo.

—————-

Very well written book that facilitates the understanding of a topic that is difficult to understand for the uninitiated in the world of AI. For the initiated, it brings together very interesting knowledge and reviews if you want more information on the subject. It has a pleasant reading with opinions of national and international experts that touch many of view so that the reader forms his own opinion. It clarifies very complex concepts such as quantum computing, the management of big data, or robotization, in addition to giving a broad vision of Artificial Intelligence. Recommended especially for skeptics.

Some inspiring words from the great Stephen Hawking: «Artificial Intelligence can be the best or the worst thing that has happened in the history of mankind.»
Artificial Intelligence (AI) has existed since the 50s of the last century, however, from 2010, it began to experience rapid growth motivated by the explosion of the so-called Big Data: the storage capacity of data, the increase in computing power and new techniques, such as deep learning. Predictions suggest that, in the coming years, the development of AI will be exponential, largely motivated by the enormous investments, both private and public, that this technology enjoys around the world, and by the expectations of profitability and the transformative capacity attributed to this technology. Currently, billions of dollars are being invested in the development of this technology.
The evolution of machine learning (machine learning), deep learning (deep learning), natural language processing (ability of machines to process natural language) and robotics will mark the most immediate future of Artificial Intelligence.

Many countries are currently opposed to allowing certain degrees of autonomy 1 in the development of lethal weapons. The regulatory framework in this regard is a priority and the criteria that should be applied seem very clear, all based on the fact that a machine can never make the final decision on life and death. But the fact is that the arms industry moves more than 1.5 trillion dollars worldwide. It is a very profitable business and AI represents a technological revolution of extreme interest for this sector. It is difficult to stop this development. However, the attempts have not stopped.
In the summer of 2015, scientists and AI experts, including British astrophysicist Stephen Hawking, entrepreneur Elon Musk, president of Tesla and SpaceX, and Steve Wozniak, Apple’s co-founder, signed a manifesto against autonomous weapons. .

What does it mean to lie? Maybe just not telling the truth? According to one of the meanings that we can find in the dictionary of the Royal Spanish Academy (RAE), it would be: «Say or state the opposite of what is known, believed or thought». Therefore, if we stick to this, it would be a conscious action. The human being knows that «it is not true» when he exercises this action, at least normally. The algorithms, for the moment, are not aware of why they are carrying out their actions. Therefore, the machine does not lie. So let us transfer the problem back to the “human”, who is the only one who, for now, has this peculiarity that we try to export so easily.
The AI, for now, feeds on the databases that we provide. In fact, one of the great problems that this technology had had to develop, since its inception, in the first years of the 1950s, was the lack of data. The expansion of the Internet and its inherent characteristics solves this problem by generating Big Data (exponential growth of data), which, together with the increase in the power of computers and the increase in data storage capacity, saved this stumbling block. . However, it brought with it new difficulties. Some of these data are not true, even if you are not aware of it. Others belong to very specific situations, whether temporary or cultural, and, taken out of context, lose their reason for being. The data, by itself, does not generate knowledge, but its analysis and processing do. If one link in this process chain is altered, it ends up affecting its entirety. This is the danger that exists in decision-making by algorithms.
We humans are the ones who must reason about the decisions that we must leave in the hands of the machine. Today, in Western culture, it is companies and organizations that are deciding what decisions they want to automate or not; it is the free market that decides. But, in the near future, the decision may go through a regulatory body that controls and realizes prevention of a possible negative impact of these technologies. However, in China, the government makes decisions about AI.

Given that, today, it is not possible to teach ethics to a machine, it will be to companies and their developers who must be demanded that the development and use of AI be carried out in an ethical manner, in accordance with human rights international. And this is the dominant path that international organizations are pushing today. They work on ethical codes in Artificial Intelligence to direct the actions of companies that implement these technologies in products and services.
In this sense, in April 2019, the European Commission presented the guidelines for the development of a reliable and safe AI in the European Union:
1. Human oversight: AI systems must enable equitable societies and protect fundamental human rights. They must not diminish or limit human autonomy.
2. Robustness and security: Artificial Intelligence requires algorithms to be secure, reliable and solid enough to face errors or inconsistencies during its decision-making processes.
3. Privacy and data governance: Citizens must have full control over their own data. In addition, the data concerning them will not be used to harm or discriminate against them.
4. Transparency: Transparency must be guaranteed in the decision-making process of the Artificial Intelligence system (Explainable AI).
5. Diversity, non-discrimination and fairness: AI systems must consider the full range of human skills and requirements, and ensure accessibility.
6. Social and environmental well-being: Artificial Intelligence systems should be used to enhance positive social change and enhance sustainability and ecological responsibility.
7. Accountability: Mechanisms should be established to ensure accountability and accountability for AI systems and their results.

The Cambridge Analytica scandal gave new meaning to so-called fake news. Before, «fake news» was written by people who made money from advertising on the Internet. They had discovered that certain news headlines, mainly those that incited curiosity or alarm, received more clicks and, therefore, more income than others. They are called click-baits. Although driven by the Internet business model, leading some to think that it may not be the right model, this fake news was what it was: fake news. In fact, the battle against click-bait is already being fought on the Internet. In recent years, pages such as ClickHole, the website of the satirical newspaper The Onion, or the Twitter of «Saved You a Click» have emerged, which parody and they criticize these types of headlines. Even Facebook has modified its algorithm to detect and combat them, so that it measures the time that passes from when the user clicks on the title of the article until they return to the social network. For its part, Google has also committed to this end.
Google and Facebook are the kings of online advertising, controlling more than 80-90% of the market. They have managed to become the default online advertising platforms, used by many companies to manage their online advertising and promotion activities. And they have done it to be able to offer their clients (companies and organizations) the greatest reach of users worldwide. Facebook has more than 2 billion users on its platforms (Facebook, Messenger, WhatsApp, Instagram), and Google, Chrome and Android products are used in much of the planet. In order to use these Google and Facebook products as an end user, it is necessary to accept that they use your data for advertising. It is said that users are the product of Google and Facebook, who sell our attention to their customers so that we pay attention to their products, services and messages. The truth is that, legally, everything is covered because we have accepted its terms and conditions described in a large number of pages.
The technological giants (Google, Amazon, Facebook, Apple and Microsoft, GAFAM), with several billion users worldwide, are the ones that concentrate most of the data that is generated. This carries several risks. Any data breach can have an impact on billions of people. Another risk is that they could dominate AI services in much of the world. These companies have all the necessary data to train AI algorithms, in addition to having hired the best engineers and scientists in the world. As a result, they will be able to offer, through their cloud, the best AI services in the world, generating even more data and its concentration in a few places.
Companies, especially GAFAM, have more and more information about us because of the use we make of their products and services: Apple controls IOS; Google controls Android, as well as many apps like Google Maps, Gmail, Waze, etc .; Facebook controls Instagram, WhatsApp, Facebook, and Messenger, tools that we use almost every day. With this they are able to know our interests, where we live, where we work, what are our interests, hobbies, friends, even our political preferences. But they are even able to find out if we are impulsive buyers, if we are easy to influence or if we have strong opinions. All this information is used to make recommendations for movies (Netflix), products (Amazon), personalize our wall (Facebook), suggest what text to reply to an email (Gmail), open the GPS with our destination already set (Waze) , etc.

We can distinguish between three phases and we are currently in the second phase.
• Phase I. The blue pill: Until the middle of the 2010-2020 decade, few people were aware of the data market and how the Internet business model worked.
• Phase II. The exchange: At the beginning of the 2020s, most Internet users know that they pay for Internet services and apps with their personal data. They use Gmail because it suits them and it also has more and more advanced functionalities based on Artificial Intelligence, such as the automatic classification of all emails according to personal importance for each user.
• Phase III. Yes, I do: This is the last phase, still in the future, where users want companies to use our personal data to improve our lives, for whatever. If they have to share our data with third parties, we will be happy for this to happen because it will improve our lives.

In this sense, it is logical to question whether we should renounce the opportunities that data offer us to do good for social concern. We believe that, given the great problems we face as humanity, we cannot afford to give them up. But neither should we ignore social concern. It is necessary to educate public opinion and society that it is aggregated and anonymized data, that there is no significant risk to privacy. The trust issue is back. Also for non-personal data we have to be able to trust that companies make good use of it and, if they share it with governments, that they also make responsible and effective use of data to solve the problems that matter. Not to do so would be irresponsible towards ourselves.
But it is not an easy subject.
Education and training in new technologies. But not in technique, but in the impact they can have and how to prevent it. Training at all levels, from the youngest to the oldest. Beyond the prohibitions and laws, which will also be necessary, this educational effort is worthwhile to help efficiently assume the drastic changes that these technologies imply in the daily routine of any person.

If we analyze the type of malicious use that can be intensified with Artificial Intelligence, we can distinguish three types: attacks in the field of digital security (cyberattacks on critical infrastructure); attacks with an impact on physical security; and attacks on political security.
There are different ways in which AI can increase the danger of cyber attacks, compromising digital security. With AI, you can automate attacks that are currently done manually, such as spear phishing. These are phishing attacks, 7 to selective and personalized people at the individual level with name, address, etc. Currently this requires manual labor, but with AI it can be automated and scaled up significantly. We can also expect new types of attacks that exploit human vulnerabilities (for example, by using speech synthesis for spoofing), existing software vulnerabilities (for example, through automated hacking), or vulnerabilities of AI systems (for example , through adverse examples and data poisoning).
To prevent malicious uses of AI, various measures can be taken. In fact, almost all of the misuse explained here is currently prohibited by law for a long time. Sabotage of critical infrastructure is prohibited, regardless of the technology used. Manipulation to influence democratic processes is prohibited. Using cars as weapons in terrorist attacks is prohibited. It is forbidden to invade the privacy of people, through massive surveillance with cameras, such as Big Brother, among many other things. The question is whether AI needs specific regulation to prevent these misuses or whether it is already covered in current laws. If, thanks to Artificial Intelligence, it is impossible to verify if these types of crimes are being committed, a specific regulation may be necessary. The discussion about HITL, HOTL and HOOTL is also relevant here: what autonomy to allow lethal autonomous weapons? But these are mostly political opinions, beyond the AI itself.
Ultimately, the arms race with the use of AI and robotics technologies will most likely continue apace in the coming years, despite international attempts to limit its uncontrolled proliferation. As some famous philosophers, such as Thomas Hobbes, have explained, throughout history, each human being seeks his own conservation first, which gives rise to competition and mistrust among human beings. «In this natural state there are no objective moral distinctions, so that such competition gives rise to a permanent state of war of all against all, in which each one is guided exclusively by obtaining their own benefit and, with no morality whatsoever. There is no more limit to obtaining our desires than the opposition that we can find in others.

AlphaZero runs on a single computer with four Tensor Processing Units (TPUs), integrated circuits developed specifically for machine learning.
In short, they are already highly evolved algorithms. We must bear in mind that we are at the beginning of the great heyday of Artificial Intelligence. In any case, no matter how evolved these “machines” become, it is time to consider whether it is really worth continuing to promote competition with them or if the time has come to change your mindset.
China and Estonia were some of the first to launch these «virtual judges» with Artificial Intelligence. Specifically, the Asian giant publicly announced, in 2019, an online litigation center in which a judge with a human voice, body and facial expressions, resolves simple trials, although, for now, with the help of real judges. You can also learn and analyze past cases extremely quickly and verify case law in real time. In addition, they have developed the so-called «Balance chain system», through which the traceability and, therefore, the veracity of the entire process of extraction and conservation of electronic evidence can be verified. In any case, the authorities that presented this initiative also pointed out that its use was a complement to improve the efficiency of the judges, not a replacement.
On the other hand, in Estonia, similar initiatives have also been put into operation, for demands of less than 7,000 euros. The operation is similar to that of China and the objective is to improve the efficiency of the judicial system and, therefore, its service to society.

For the use of personal data for the preparation and sharing of reports or strategies by public / or private organizations, it is mandatory to apply an «anonymization» process, by means of which these data cease to be personal. The best “traditional” example of this practice is the statistical offices that, based on data from specific individuals and companies, prepare reports where there is no individual data.
In the last two cases (for both public and private companies / organizations), there are several main issues that must be very clear, at the legislative and regulatory level, if the use of data and AI is to be promoted both in times of bonanza, as in those of crisis:
• The user must give express consent for the use of personal data. You must have the ability to withdraw them whenever you want.
• This consent must include the specific actions that will be taken with said data and specify that they will not be transferred to third parties for a use other than that established.
• In cases of “extreme necessity” (measure defined under specific legislation or regulations), always under the control of the relevant authority, exceptional measures may be developed with “the use of particular data for the common good, which will never exceed time limits. preset.
At present, the companies that handle personal data of users, in the event that they have to give them for the social good ”, have certain concerns that can be summarized in the following points:
• Before the data leaves the company, it must be anonymized and aggregated, in such a way that re-identification is impossible. Data protection laws do not apply to non-personal data, so sharing is possible. However, from a purely technical point of view, 100% anonymization is debatable, although, in practice, individuals are unlikely to be re-identified.
• The General Data Protection Rule (GDPR), which came into force in May 2018, represents important changes in data protection and privacy laws for European countries. One change is related to the consent of companies, which must ask for explicit and informed consent before they can use personal data. Another is related to what is considered anonymous data. In the GDPR, there is a distinction between personal data, pseudonymous and anonymized data. Some of the data that is considered anonymous before the GDPR, such as pseudonymised data, will be considered personal data in the new framework. This raises the first concern, as the perceived risk of privacy invasion increases.
• Security is always an important issue for companies. When data is stored within the premises of a particular company, internal security procedures can be applied as necessary. However, when the data leaves the company premises, control is lost, even if it is anonymized and aggregated.
• The last concern is reputation. A company that works in the area of Big Data for social welfare and contributes to the common good, in principle, gains a better reputation. However, if something happens to company data after it leaves your premises, there could really be a reputational risk for the company.

Artificial Intelligence and Big Data can help in the fight against a pandemic in the following ways:
• Slow down the spread at the beginning of the pandemic through apps to be able to perform rapid tests and map those who have been in contact with the infected person. It requires personal data.
• Understand and manage mobility restrictions for the population to prevent the spread of the virus. It does not require personal data. It is done with anonymized and aggregated data.
• Predict where the virus will spread by combining Big Data of mobility patterns with epidemiological models. It does not require personal data. It is done with anonymized and aggregated data.
• Deep learning systems to improve diagnosis in quality and speed. It does not require personal data.
• Simulations with chemical components to find those that could stop the infection of host cells. It does not require personal data.
The COVID-19 crisis has intensified the discussion between privacy and the use of personal data for the common good. Because of the cultural difference, Asian countries, for the moment, seem to have controlled the crisis before using very intrusive technology for privacy. Which of this approach is better is an ethical question, not a technological one.
The most important thing is, respecting local ethics, that all possible technologies are used to stop the spread of the coronavirus. And this, unfortunately, has not been the case in this crisis. We still have to improve, in this regard.
Let’s hope the unprecedented COVID-19 crisis, the B2G Expert Group report and the European Data Strategy make a difference in the face of possible similar situations in the future. And that we can see news about pandemics, similar to the one presented below, where it is appreciated how, ten years after the great tsunami of 2004, a better system is operating that helps to minimize the impact of these natural phenomena.

If we think about what technologies make this task automation possible, we can highlight:
• RPA (Robotic Process Automation): Automation of simple and repetitive mental tasks.
• Digital or virtual assistants: Automation of interaction with customers and users, such as Google Duplex, Alexa, Aura, Cortana, Siri, etc.
• Recognition of images or videos: Automation of tasks that require identifying objects in images or videos to later make a decision or execute an action
• Supervised Machine Learning: This technology lags behind almost all previous technologies, as we explained in the first chapter of this book.
Simply saying that Artificial Intelligence and robots are going to replace us as workers is too simplistic. Few researchers and studies see it this way. There is consensus that some jobs will disappear, many will change their nature and new ones will be created that, today, we do not know.

The two great technological issues for autonomous decision making are biases, with their possible unwanted discrimination, and the explicability of black box algorithms. Currently, these two areas have intense research activity and most likely, in about five years, the technical problem will be solved. We will be able to open the black box algorithms so that we can understand how they work and how they reach specific conclusions. It will also be possible to avoid discrimination against vulnerable groups, even if no data is available in this regard in the data set with which the algorithm works.
Although currently Artificial Intelligence does not have horizontal regulation, there is much discussion about it, in national governments and in the European Commission, about whether it is necessary or not. Legislation already exists that prohibits discrimination against vulnerable groups, discrimination against race, religious conviction, etc. There is also the right to complain if a citizen does not agree with a decision that affects him, such as the rejection of a social benefit. And the European GDPR protects the privacy of personal data. The question is whether, with Artificial Intelligence, it has become impossible to exercise and control these laws. Both companies and public administrations that use AI, as well as regulators and judges who have to verify its proper use, have difficulties in achieving it. This is, on the one hand, because it is a new technology that they do not control and, on the other, because it allows automating decisions on a scale that was not made before. Currently, the candidates to be regulated, in the field of AI, are autonomous decisions and facial recognition in sectors and applications considered as high risk, such as defense, transport and health.

Technologies are neither good nor bad. It all depends on its use and this depends on the people. We, at this moment in history, can still guide our destiny towards one path or another. Our future will depend on our decisions now. However, even if the intention is good, there can always be unforeseen consequences with a negative impact.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.