Inteligencia artificial
Máquinas que «piensan»
1. El camino hacia las máquinas inteligentes
El 1 de octubre de 1950 la revista científica Mind publicó un artículo titulado Máquinas informáticas e inteligencia [1], cuya primera frase decía así: «Propongo reflexionar sobre la siguiente pregunta: ¿pueden pensar las máquinas?». El autor no era ningún desconocido. Se trataba de Alan Turing, el director de un equipo en el laboratorio de Bletchley Park durante la Segunda Guerra Mundial. Su equipo consiguió descifrar los mensajes cifrados por los dispositivos Enigma utilizados por la Alemania nazi. En este artículo, Alan Turing describió un experimento que denominó Imitation Game (Juego de imitación), en el que un interrogador formulaba preguntas para determinar si la persona interrogada era un ser humano o una máquina. Se trataba del famoso test de Turing. En la última parte del artículo, titulada Learning Machines, Alan Turing analizaba la colosal cantidad de código que habría que escribir para crear una máquina inteligente y concluía que sería más fácil diseñar una máquina con inteligencia básica, como el cerebro de un bebé, y luego enseñarle cosas, como hacen los padres, el entorno o la guardería. Incluso previó un sistema de premios y castigos para que el aprendizaje de la máquina fuera más eficaz. La máquina estaría programada para evitar repetir acciones que han precedido a un castigo y aumentar la probabilidad de repetir las que han conducido a una recompensa.
En 1950, solo existían unos pocos ordenadores electrónicos en el mundo, entre ellos el Manchester Mark 1, que Alan Turing tuvo la oportunidad de programar. Estas máquinas eran todavía muy rudimentarias, poco fiables y no muy potentes. Pero esto no impidió que este visionario documento explorara conceptos que, décadas más tarde, pueden compararse con la inteligencia artificial, el aprendizaje automático y el aprendizaje por refuerzo.
Del 18 de junio al 17 de agosto de 1956 se celebró el Dartmouth Summer Research Project on Artificial Intelligence. Una treintena de investigadores se reunieron en el campus de esta universidad, en New Hampshire, para...
Las IA tontas
Para ciertas tareas limitadas, las IA pueden superar a los seres humanos. Las IA están activas 24 horas al día, 365 días al año sin cansarse ni desmotivarse aunque el trabajo sea repetitivo y aburrido. Son rápidas y pueden procesar grandes volúmenes de datos. Sin embargo, a veces las IA cometen errores. En ocasiones lo hacen de forma flagrante y cometen errores que un niño de 5 años habría evitado. Por eso el investigador Sendhil Mullainathan dice: «Deberíamos tener miedo. No de las máquinas inteligentes. Sino de las máquinas que toman decisiones para las que carecen de la inteligencia necesaria. Me da mucho más miedo la estupidez de las máquinas que su inteligencia».
1. Las IA toman atajos
El reconocimiento de imágenes es un campo en el que las IA han progresado mucho en los últimos diez años y, en general, ya rinden al mismo nivel que los humanos. Pero tanto los ejemplos cómicos como los trágicos ilustran la propensión de estas IA a cometer errores. En las redes sociales hay vídeos publicados por propietarios de coches Tesla que muestran cómo la IA diseñada para reconocer señales de tráfico y semáforos utilizando imágenes de las cámaras del vehículo comete errores. Según el caso, confunde un semáforo con la Luna, una pancarta vertical con la palabra COOP escrita en rojo o incluso un camión que transporta semáforos. Trágicamente, en mayo de 2016, un Tesla se empotró debajo de un camión matando al conductor. El sistema de asistencia al conductor, Autopilot, que estaba activado, no vio el camión blanco sobre el fondo de un cielo nublado. El conductor no tenía las manos en el volante, a pesar de las recomendaciones del fabricante y las repetidas advertencias sonoras del vehículo. En octubre de 2020, Facebook prohibió una foto de cebollas subida por una tienda de semillas y fertilizantes. Los colores y las formas de las verduras convencieron claramente a la IA encargada de validar los contenidos de que se trataba de una foto indecente. Ese mismo mes, una IA encargada de controlar una cámara automática, instalada recientemente en el estadio de un club de fútbol escocés, confundió la cabeza calva de un juez de línea...
Las IA con sesgo
Resulta tentador pensar que, como las IA se basan en las matemáticas y el análisis de grandes volúmenes de datos, son neutrales, objetivas, justas, imparciales e incluso incorruptibles. Sin embargo, numerosos estudios e incidentes en los últimos años han ilustrado la propensión de las IA a producir resultados sesgados que pueden tener efectos negativos en las personas.
1. Sesgos en la contratación, la justicia y la salud
Confiar a las IA la tarea de analizar los CV para seleccionar a los mejores candidatos puede ser interesante para el departamento de recursos humanos de un gran grupo, dados los grandes volúmenes de candidaturas que hay que procesar. En 2014, Amazon se embarcó en un proyecto de este tipo. Rápidamente se vio que la IA tenía tendencia a sobrevalorar los CV masculinos. Sin embargo, la herramienta no estaba diseñada para tener en cuenta el sexo de los solicitantes. Una mirada más atenta reveló una explicación. La IA se había entrenado con los CV recibidos por la empresa en los diez años anteriores y la inmensa mayoría eran de hombres. Este entrenamiento dio lugar a sesgos que se tradujeron en valoraciones más bajas para los CV de mujeres. Amazon intentó corregir las deficiencias de su IA de análisis de CV antes de rendirse finalmente en 2018 y desconectarla.
En mayo de 2016, ProPublica, una asociación de periodistas de investigación, publicó una investigación [17] sobre el programa COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Esta herramienta se utilizaba en el sistema judicial estadounidense para predecir el riesgo de reincidencia de los delincuentes en libertad bajo fianza o condicional, condena o programas de rehabilitación. Los periodistas obtuvieron los resultados del COMPAS de más de siete mil personas detenidas en un condado de Florida entre 2013 y 2014 y analizaron los cargos presentados contra estos individuos en los dos años siguientes. Estudiaron los casos de falsos positivos, cuando la IA que calculaba las puntuaciones del COMPAS daba un valor que indicaba un alto riesgo de reincidencia y en los que el acusado no reincidía. Resultó que estos casos eran el 45 % para las personas negras y el 22 % para las personas blancas.
Por el contrario, al analizar...
Las IA opacas
1. La cuestión de la explicabilidad
Sobre la base de los datos de entrada, la IA de aprendizaje profundo produce una decisión, predicción o contenido, a menudo acompañado de un nivel de confianza en forma de probabilidad. Pero, por defecto, no dice nada más. Para la persona sujeta a la inferencia, para la organización que aplica la IA y para cualquier regulador, los resultados generados no se explican ni se justifican. Es cierto que se han obtenido mediante cálculos sencillos basados en los datos de entrada y los parámetros ajustados durante el entrenamiento. Pero cuando una IA tiene millones de parámetros y cientos de capas, el entrenamiento genera un sistema extremadamente complejo que relaciona los datos de entrada con los de salida, cuyo funcionamiento ni siquiera el diseñador puede explicar fácilmente.
El proceso de desarrollo de las IA de aprendizaje profundo se basa en ensayos con diferentes arquitecturas, conjuntos de datos de entrenamiento e hiperparámetros. Las características elegidas se basan principalmente en la eficacia práctica de la IA así construida durante las etapas de validación y prueba, y no en una explicación de dicha eficacia. Durante el entrenamiento, el desarrollador selecciona los datos de entrenamiento y comprueba la exactitud de la predicción en los datos de validación y prueba, pero los parámetros son ajustados por el algoritmo de entrenamiento y no por el desarrollador. Esta situación es muy diferente de la de un programa informático escrito por un desarrollador que utiliza instrucciones y variables para definir un comportamiento determinista, aplicando una lógica establecida durante la fase de diseño. El código del programa puede ser voluminoso y complejo, y pueden aparecer errores, pero las herramientas de depuración (depurador) permiten al desarrollador ejecutar las instrucciones una por una y explicar el comportamiento del programa. Los desarrolladores también introducen comentarios en el código para documentar su funcionamiento. Este tipo de herramientas y recursos no existen en el mundo de la IA.
Esta opacidad no se aplica a todos los tipos de IA. Algunas categorías, como los algoritmos de regresión lineal o logística, los árboles de decisión o los motores de reglas utilizados...
Las IA habladoras
Las IA ingieren grandes cantidades de datos de los que deducen parámetros que luego utilizan para tomar decisiones, hacer predicciones o generar contenidos a partir de los datos que se les presentan. Se supone que no aportan ninguna información adicional. Sin embargo, desde la década de 2010, la investigación ha estado explorando la posibilidad de extraer información de las IA además de los resultados de la fase de inferencia, lo que conlleva riesgos para la confidencialidad de los datos de entrenamiento y los parámetros de la IA.
1. Ataques de exfiltración de modelo
La primera categoría de ataque se denomina exfiltración de modelo o model extraction. El objetivo es recuperar información sobre una IA, su arquitectura, sus hiperparámetros y sus parámetros, o incluso generar una IA que ofrezca resultados similares a los de la IA objetivo. Los primeros trabajos en este ámbito se remontan a 2016, cuando un equipo [53] logró crear unas IA que realizaban clasificaciones idénticas a las de las IA solicitadas a través de las API con una alta tasa de éxito, demostrando así que era posible producir copias de las IA incluso si solo se podía acceder en modo caja negra. En esta situación, el atacante no tiene conocimiento ni privilegios sobre el sistema objetivo. Solo puede interactuar con él, como lo haría un usuario normal, enviando consultas y obteniendo clasificaciones acompañadas de puntuaciones de confianza sobre los resultados. En cambio, en el modo caja blanca el atacante tiene acceso a toda la información (documentación, datos, código fuente, parámetros, etc.).
En noviembre de 2017, se publicó un estudio [54] en el que se describía el enfoque a seguir basado únicamente en unos cientos de consultas de clasificación...
Las IA frágiles
Parece lógico que las IA utilizadas para proteger un entorno contra ciberataques, conceder o denegar accesos o detectar fraudes, se conviertan ellas mismas en objetivos de los atacantes. Al estar alojadas en ordenadores, todas las técnicas clásicas de intrusión pueden utilizarse para acceder, analizar o modificar su código o sus parámetros. Un atacante que consiga penetrar en un sistema en el que se ejecuta una IA puede controlar totalmente las predicciones, decisiones o contenidos producidos. Pero existen otros tipos de ataques que intentan hacer que las IA funcionen mal en función de características propias de estas tecnologías.
1. Ataques adversarios
Ya a principios de la década de 2000, pocos años después de que se desarrollaran las primeras herramientas de ciberseguridad basadas en IA para identificar programas, correos electrónicos o flujos de red maliciosos, la investigación exploró formas de eludir estos dispositivos y escapar al filtrado. En 2002, un estudio [65] presentó técnicas para esquivar un software de detección de intrusión basado en el aprendizaje automático. En 2004, se atacó una herramienta antispam [66] utilizando un enfoque que incluía un algoritmo para generar correos electrónicos capaces de pasar a través del filtro cuya función era interceptar dicho contenido.
En diciembre de 2013, un artículo fundacional [67] sentó las bases de lo que más tarde se conocería como ataques adversarios (no confundir con las GAN o Generative Adversarial Networks, aunque las GAN se utilizan a veces para ataques adversarios). Estos ataques también se conocen como ataques de evasión, ataques contradictorios o ataques antagonistas. Los investigadores demostraron que era posible inducir clasificaciones incorrectas por parte de una red neuronal de reconocimiento de imágenes sometiéndola a una foto a la que se había aplicado una perturbación prácticamente imperceptible a simple vista, alterando determinados píxeles de la imagen. Una foto de un autobús escolar tratada de este modo era clasificada por una IA como un avestruz. Era posible realizar ataques dirigidos en los que el atacante era capaz de controlar la clasificación realizada...
Las IA indiscretas
Ya vimos anteriormente que ciertas características de las tecnologías basadas en blockchain chocan con ciertos requisitos del RGPD. La situación es similar para la IA, por diferentes razones. Hay una serie de normas en el RGPD que son muy difíciles de cumplir cuando se quiere desplegar una IA que se alimenta de datos personales. El RGPD se aplica, por un lado, cuando una IA, durante su desarrollo, se entrena utilizando datos personales y, por otro, cuando se utiliza para producir resultados relativos a las personas.
1. Finalidad y minimización
El RGPD exige que la finalidad del tratamiento de datos personales, es decir, el objetivo perseguido por el tratamiento, se defina explícitamente antes de recopilar los datos. Los datos personales no deben tratarse posteriormente para otro fin, a menos que se aplique una excepción (como el tratamiento compatible, el consentimiento de las personas o el interés público). Sin embargo, dada la naturaleza de la IA, puede resultar difícil para los desarrolladores saber de antemano con qué finalidad se utilizará exactamente una IA, sobre todo si posteriormente se utiliza como base para el aprendizaje por transferencia de otra IA. En el caso del aprendizaje supervisado, el requisito de limitar los fines es problemático porque, ante la carga de trabajo que supone construir conjuntos de datos de entrenamiento suficientemente grandes, resulta tentador reutilizar los datos que se han utilizado para entrenar una IA con el fin de entrenar otras IA con fines muy distintos. El problema también se plantea en el caso de las IA fundacionales, que en última instancia pueden utilizarse para tareas que no estaban previstas durante el entrenamiento inicial.
El RGPD también exige que, de acuerdo con el principio de minimización, solo se recojan y traten los datos pertinentes y necesarios para los fines del tratamiento. Este principio no es fácil de aplicar en un contexto en el que la precisión de una IA depende en gran medida de la cantidad de datos utilizados para entrenarla. Además, el poder del aprendizaje automático reside en su capacidad para identificar correlaciones que ningún ser humano podría haber imaginado en categorías de datos que a veces están muy alejadas del dominio en el que la IA debe encontrar resultados.
En el caso del aprendizaje...
Las IA atacan y son atacadas
1. La IA al ataque
La IA ya está integrada en muchas herramientas de ciberseguridad y las organizaciones la utilizan como escudo para protegerse de los ciberataques. Por muy al contrario puede ser una espada que facilite o permita los ciberataques.
Los atacantes pueden utilizar las IA para ayudarles en la fase de reconocimiento, que consiste en identificar objetivos y puntos de entrada, ya sean sistemas o personas. La capacidad de las IA para analizar grandes cantidades de datos no estructurados, texto o imágenes, puede ayudar a los atacantes a trazar el perfil de las organizaciones objetivo localizando direcciones IP y redes, nombres de dominio, servidores, sitios web, etc., que les pertenezcan. Del mismo modo, la IA puede utilizarse para descubrir a sus empleados y directivos y recopilar sus datos personales, nombres, direcciones de correo electrónico o identidades en redes sociales. A continuación, la IA puede utilizarse para seleccionar los sistemas o personas más vulnerables a los que atacar primero. En 2017, una presentación [131] en la conferencia de ciberseguridad Black Hat describió cómo, basándose en la información recopilada en Internet, la IA podía utilizarse para seleccionar a personas para llevar a cabo un ataque de fraude presidencial dirigido a conseguir que un empleado realizara transferencias fraudulentas.
En las primeras fases de un ciberataque se puede atacar a seres humanos mediante técnicas de phishing o ingeniería social. Puede tratarse de un correo electrónico que contiene un enlace que redirige al usuario a un sitio en el que se le pide que introduzca su contraseña, o un archivo adjunto que permite al atacante acceder al puesto de trabajo de la víctima en cuanto se abre. También puede adoptar la forma de solicitar a las personas objetivo a través de una llamada telefónica, un correo electrónico o una conversación en una red social, con el objetivo de obtener información sensible como contraseñas, o conseguir que realicen una acción como modificar un número de cuenta bancaria en una aplicación de pago a proveedores. Cada una de estas técnicas puede hacerse más eficaz utilizando la IA para seleccionar los objetivos más débiles y generar el contenido adecuado para maximizar el éxito...
La voracidad de las IA
1. La carrera por el gigantismo
Algunas de las IA más potentes se entrenan utilizando enormes conjuntos de datos. ImageNet, utilizada para entrenar a las IA de reconocimiento de imágenes, contiene 14 millones de fotos etiquetadas acumuladas desde 2009. JFT-300M, compilada por Google, contiene 300 millones de imágenes con 1.000 millones de anotaciones asociadas. Facebook ha entrenado una IA con 3.500 millones de fotos de Instagram. Las IA de procesamiento del lenguaje también reciben grandes cantidades de datos. GPT-3 se entrenó con un corpus de texto de 570 GB que contenía 355.000 millones de palabras. La IA china Wu Dao 2.0 se entrenó con 4,9 TB de datos, incluidos 2,4 TB de textos en chino y 2,4 TB en inglés. LaMDA de Google aprendió a partir de 1.560.000 millones de palabras. El conjunto de datos de aprendizaje LAION-5B contiene 5.850 millones de pares imagen-texto. Se tardarían 185 años en analizarlos todos a razón de una imagen por segundo.
El rendimiento del aprendizaje profundo o deep learning se explica en gran medida por el fortísimo crecimiento del número de parámetros, es decir, las variables internas de la IA que se ajustan mediante el entrenamiento para lograr los resultados esperados. Desde 2020 han aparecido algunas que son auténticos mastodontes. GPT-3 utiliza 175.000 millones de parámetros. Gopher de DeepMind tiene 280.000 millones. Megatron-Turing NLG tiene 530.000 millones de parámetros. PaLM, GShard, GLaM y Switch-C de Google tienen 540, 619, 1.200 y 1.600 billones de parámetros respectivamente. El récord lo ostenta Wu Dao 2.0, desarrollada por la Academia de Inteligencia Artificial de Pekín, con 1.750 billones de parámetros. Un artículo [147] publicado en junio de 2021, que analizaba 139 proyectos...
Las IA engañosas
1. u/deepfake
A principios de noviembre de 2017, un usuario con el seudónimo «u/deepfake» comenzó a publicar vídeos en un grupo de la web comunitaria Reddit en los que se colocaban rostros de famosos sobre cuerpos de actrices pornográficas en plena acción. Así nació la palabra deepfake, basada en la combinación de deep learning (aprendizaje profundo) y fake media (medios falsos). Englobaba el uso de la IA para manipular o generar imágenes, vídeos, sonidos o textos, con un nivel de realismo que los hacía difíciles de distinguir de los contenidos auténticos. El grupo al que se subieron los vídeos fue eliminado por Reddit en febrero de 2018, pero entretanto lo habían frecuentado 100.000 usuarios. Se publicaron nuevos deepfakes, de individuos que utilizaban claramente el código puesto a disposición por «u/deepfake». Desde entonces, han aparecido nuevos sitios para alojar este tipo de vídeos y se han publicado miles de deepfakes pornográficos en Internet. La prensa se ha hecho eco del tema desde diciembre de 2017, expresando su alarma por el impacto que estos vídeos pueden tener en las mujeres que caen víctimas de ellos y otros usos malintencionados como las campañas de desinformación. La era de los deepfakes o hipertrucajes ha comenzado.
2. Caras falseadas
La investigación académica ya ha estudiado las tecnologías que hacen posible estas deepfakes de caras. En julio de 2016, se publicó un artículo [153] en el que se presentaba un método para implantar las expresiones faciales de un actor sobre la cara de un individuo en un vídeo. Era posible crear secuencias en las que la cara o incluso el cuerpo de una persona se animaba como una marioneta, copiando las expresiones faciales y los movimientos de cabeza de otra persona. En julio de 2017, un equipo de investigadores [154] demostró, utilizando a Barack Obama como modelo, que los movimientos de los labios correspondientes a una secuencia de audio se podían pegar en la cara de un individuo en un vídeo. De este modo, los deepfakes podían utilizarse para generar vídeos realistas en los que una persona dice cosas que nunca ha dicho.
Han aparecido numerosas aplicaciones móviles de intercambio de caras o face...
Cómo construir una IA de confianza
1. Establecer una gobernanza para las IA
En cuanto las IA se implantan en apoyo de los procesos empresariales o se comercializan, conllevan riesgos operativos. Estos riesgos pueden afectar directamente a la organización que aplica la IA, cuando, por ejemplo, se hace una predicción de ventas incorrecta. También pueden tener consecuencias para las personas para las que se utiliza la IA, como en el caso de que se deniegue un préstamo sobre la base de una decisión sesgada. Por lo tanto, es importante establecer un marco para el desarrollo controlado y el uso responsable de la IA en la empresa.
En los proyectos basados en IA que se ponen en marcha en las empresas intervienen múltiples partes interesadas. En primer lugar están los jefes de proyecto y los equipos de ingeniería, diseño y desarrollo que participan en el diseño y la formación de la IA. También están implicados los responsables de los procesos empresariales en los que debe operar una IA. Deben definir los objetivos y principios que hay que respetar, y participar desde la fase de diseño hasta el despliegue del proyecto en colaboración con los equipos de desarrollo. Las funciones de control como la auditoría interna, la gestión de riesgos, los asuntos jurídicos, el cumplimiento, la ética o la conducta profesional, la calidad, la ciberseguridad y la protección de datos personales deben comprobar que los riesgos relacionados con la IA se identifican y cubren adecuadamente, y que se aplican las leyes, reglamentos y contratos. La dirección de la empresa debe asegurarse de que el proyecto de IA está en consonancia con su estrategia y sus valores, y de que los riesgos se controlan a lo largo de todo el ciclo de vida. Esta implicación puede adoptar la forma de participación de miembros de la dirección en comités para supervisar el desarrollo y el uso de la IA responsable.
Dada la novedad y complejidad del tema, es necesario sensibilizar y formar a las distintas partes interesadas sobre los riesgos asociados a la IA, para que puedan alcanzar colectivamente un nivel de conocimiento y concienciación que les permita colaborar de forma óptima y tomar las mejores decisiones. La dirección, las líneas de negocio y las funciones de control deben adquirir...
Notas
[1] Computing Machinery and Intelligence. A. Turing
[2] A proposal for the Darthmout summer research project on artificial intelligence, J. McCarthy, M.L.Minsk, N.Rochester, C.E.Shannon
[3] Artificial Intelligence: A General Survey, J. Lighthill
[4] A Logical Calculus of the Ideas Immanent in Nervous Activity, W. McCulloch, W. Pitts
[5] On the Opportunities and Risks of Foundation Models, R. Bommasan y muchos otros.
[6] Shortcut Learning in Deep Natural Networks, R.Geirhos, J-H.Jacobsen, G.Michaelis, R.Zemel, W.Brendel, M.Bethge, F.A.Wichmann.
[7] Automated Classification of Skin Lesions: From Pixels to Practice, A. Narla, B. Kuprel, K. Sarin, R. Novoa, J. Ko
[8] :
-
«Why should I trust you?» Explaining the Predictions of Any Classifier, M. Tulio Ribeiro, S. Singh, C. Guestrin
-
RISE: Randomized Input Sampling for Explanation of Black-box Models, V. Petsiuk, A. Das, K. Saenko
[9] Pathologies of Neural Models Make Interpretations Difficult, S. Feng, E. Wallace, A. Grissom, M. Iyyer, P. Rodriguez, J. Boyd-Graber
[10] Overinterpretation reveals image classification model pathologies, B. Carter, S. Jain, J. Mueller, D. Gifford
[11] From ImageNet to Image Classification: Contextualizing Progress on Benchmarks, D. Tsipras, S. Santurkar, L. Engstrom, A. Ilyas, A. Madry.
[12] Pervasive Label Errors in Test Sets Destabilize Machine Learning Benchmarks, C. G. Northcutt, A. Athalye, J. Mueller
[13] Schema Networks: Zero-shot Transfer with a Generative Causal Model of Intuitive Physics, K. Kansky, T. Silver, D. A. Mély, M. Eldawy. M. Lazaro-Gredilla, X. Lou, N. Dorfman, S. Sidor, S. Phoenix, D. George
[14] Robots that can adapt like animals, A. Cully, J. Clune, D. Tarapore, J. B. Mouret
[15] Unmasking Clever Hans predictors and assessing what machines really learn, S. Lapuschkin, S. Wäldchen, A. Binder, G. Montavon, W. Samek, K-R. Müller
[16] Back to Basics: Benchmarking Canonical Evolution Strategies for Playing Atari, P. Chrabaszcz, I. Loshchilov, F. Hutter
[17] Machine Bias, J. Angwin, J. Larson, S. Mattu, L. Kirchner
[18] Dissecting racial bias in an algorithm used to manage the health of populations, Z. Obermeyer, C. Vogeli, S. Mullainathan
[19] Machine Learning and Health Care Disparities in Dermatology, A. S. Adamson, A. Smith
[20] CheXclusion: Fairness gaps in deep chest X-ray classifiers, L. Seyyed-Kalantari, G. Liu, M. McDermott, I. Y. Chen, M. Ghassemi
[21] Face recognition...