«Una dictadura del algoritmo es una dictadura humana tras un velo tecnológico»

Lorena Jaume-Palasí por Joi Ito

Lorena Jaume-Palasí es cofundadora y directora ejecutiva de la organización AlgorithmWatch, con sede en Berlín, que analiza la ética de la automatización y la digitalización en el uso de algoritmos con relevancia social.

Especializada en filosofía del derecho, lidera el secretariado del Foro para la Gobernanza de Internet (IGF) en Alemania y forma parte de los 100 de COTEC. En resumen, ella de una de las personas que velan para que máquinas y algoritmos contribuyan al bienestar común con un uso justo de sus capacidades.

Parece que los mayores logros en IA se dan en empresas privadas y de origen estadounidense, ¿crees que Europa está haciendo los deberes para no quedarse en los márgenes de lo que será la sociedad del futuro?

No es inusual que la innovación se genere en el sector privado. El sector de las nuevas tecnologías ha pasado de la creación de productos de nicho para unos pocos a productos para el uso comercial por masas. Con ello el proceso de innovación tecnológica se ha vuelto más visible. El sector privado tiene menos restricciones y formalidades que el sector público o académico. Asimismo Estados Unidos es un país con más de trescientos millones de habitantes, mientras que Europa es un continente con más de cuarenta estados nacionales y jurisdicciones y diferentes estrategias económicas. Especialmente en la eurozona es un reto crear una estrategia de coordinación que sea adaptada e interpretada por todos los estados miembros de forma equiparable. Ahí tienen los Estados Unidos una ventaja ya que pueden lograr una mayor consistencia regulatoria y certeza legal.

«El sector de las nuevas tecnologías ha pasado de la creación de productos de nicho para unos pocos a productos para el uso comercial por masas».

Lorena Jaume-Palasí

Por otro lado la regulación en la eurozona tiene su lado positivo: las nuevas tecnologías no conocen fronteras geográficas y jurisdicciones, por ello tiene mucho sentido el pensar en regulación que va más allá de los límites nacionales. Eso explica que países de la zona nórdica hayan decidido elaborar una estrategia conjunta (si bien la mayoría ya ha elaborado o está elaborando una estrategia nacional). El hecho de que en la región de la UE hay una declaración de coordinación y la comisión europea haya publicado una estrategia regional y haya creado gremios con el mandato de desarrollar dicha estrategia es un paso importante. Y ya vemos que países como Japón están muy interesados en la adecuación de su leyes con la eurozona así como Latinoamérica, los EEUU mismos o Canadá. En otras palabras:

Si bien los EE.UU están a la cabeza en el exporte de tecnología y patentes, la UE es la que está exportando el modelo regulatorio. No es que no estemos haciendo los deberes, EE.UU y la Unión Europea están haciendo los deberes de forma diferente.

El manifiesto de AlgorithmWatch empieza afirmando que las decisiones algorítmicas nunca son neutrales. Sin embargo, parece que el brillo de la tecnología deslumbra y somos mucho más laxos a la hora de aceptar estas herramientas que, en el peor de los casos, configuran nuevas formas de vigilancia y manipulación. ¿Nos encaminamos hacia una dictadura de los algoritmos?

Un algoritmo sólo puede dictar a terceros lo que sus creadores le dictan. En última instancia el uso de algoritmos es el resultado de la tendencia humana al pragmatismo; son el lenguaje con el que se automatizan procesos a fin de alcanzar un mayor grado de eficacia, consistencia y precisión. Una dictadura de los algoritmos es una dictadura humana escondida detrás de un velo tecnológico.

«Los códigos de ética en profesiones como la abogacía y la medicina deberían extenderse y adaptarse a todas las profesiones que diseñan, entrenan e implementan algoritmos.»

Pero esta tecnología es ambivalente: los sistemas algorítmicos son muy buenos detectando patrones de comportamiento, diferencias y puntos comunes. A través de ellos podemos aprender mucho sobre el ser humano y la sociedad: por ejemplo sobre patrones de discriminación humana que se escapan a la percepción, o patrones de comportamiento celular que nos ayuden a hallar soluciones contra infinidad de enfermedades. Tenemos el futuro en nuestras manos y no tiene por qué ser negro si aplicamos dichas tecnologías conscientes tanto de su potencial como de sus riesgos y con las previsiones debidas.

Es curioso que, al mismo tiempo que se pide transparencia en todos los ámbitos, sobre todo en el político y empresarial, la información que surge de la misma discurre a través de plataformas cuyos algoritmos y, por tanto su intención, son opacos. ¿Debe ser la regulación la forma de superar esta contradicción?

La transparencia en sí es un medio, no un valor político en sí. No es suficiente con que un actor político o una compañía o una fórmula algorítmica sean transparentes y hagan abuso o corrupción visibles. A mi parecer se precisan autoridades independientes sectoriales, capaces de evaluar y sancionar usos en detrimento de la ciudadanía o sociedad y ello, efectivamente, precisa de una regulación clara y tecnológicamente neutral.

¿Cómo garantizar que esta tecnología se desarrolle teniendo en cuenta los aspectos éticos o sociales de su uso?

Se necesita un catálogo de múltiples medidas dependiendo del contexto de uso. En general, los códigos de ética en profesiones como la abogacía y la medicina deberían extenderse y adaptarse a todas las profesiones que diseñan, entrenan e implementan algoritmos: científicos del dato, desarrolladores, matemáticos, pero también managers y todo profesional que implemente procesos de automatización. A parte de ello necesitamos más expertos en filosofía, ética y ciencias sociales analizando el uso e interacción humana con dichas tecnologías. Las ciencias sociales acaban de hacer su entrada en el campo y aún quedan muchos problemas y dilemas por identificar antes de poder elaborar recomendaciones y principios de ética aplicada y legales. Asimismo también se necesita una conversación social en general que debe ser fomentada por la prensa y la política.

Lorena Jaume-Palasí

Según AlgorithmWatch, la responsabilidad sobre el algoritmo es de su creador. ¿Cuál debe ser la responsabilidad de la ciudadanía afectada por las decisiones de dichos creadores de algoritmos?

Esas tecnologías conllevan una cadena de responsabilidades más compleja: hay diferentes formas de usar algoritmos y dependiendo de la tecnología usada, la ciudadanía también es parte creadora: un chatbot aprende su vocabulario del entorno que le rodea y refleja con ello los prejuicios de la sociedad en la que es integrado. Ahí la tecnología se convierte en reflejo de la sociedad y es nuestro deber y responsabilidad como sociedad confrontar esas imágenes y evaluar nuestras normas éticas y sociales.

En general en lo que respecta a la ciudadanía, al igual que con comestibles o el tráfico, debemos identificar qué tareas e informaciones de uso necesita la ciudadanía para interaccionar con esa tecnología y determinar en ese ámbito su responsabilidad: no necesitamos entender de química para poder comprar un yogurt o de ingeniería para poder subirnos a un avión o conducir. Nuestra responsabilidad en esos casos se limita a comprobar la fecha de caducidad del yogurt, seguir las reglas estipuladas como abrocharse el cinturón en el avión, o conocer las reglas de tráfico, el uso del volante, las marchas y el freno en el caso del coche.

«No necesitamos entender de química para poder comprar un yogur. Nuestra responsabilidad en esos casos se limita a comprobar la fecha de caducidad»

¿Debemos resignarnos a la pérdida de privacidad y anonimato en aras de la comodidad y el  progreso?

No, el progreso puede crear tecnologías que fomentan la privacidad también. Pero debemos reflexionar más sobre qué significan la privacidad y anonimato y la gradualidad contextual de éstos, y entender que no son absolutos y deben equilibrarse con otros derechos humanos como la igualdad de trato, la libertad de expresión, la integridad personal, derechos laborales,  etc. que también pueden ser tanto perjudicados como fomentados por dichas tecnologías.

Hablemos un poco de robotización. Su extensión creciente en múltiples sectores industriales y la sustitución de la fuerza humana de trabajo puede llevarnos a una sociedad del ocio, en el mejor de los casos, o una sociedad de agudas desigualdades, en el peor. ¿Cuál es tu pronóstico al respecto?

Ese tipo de dis- y utopías llegan de la mano de cada innovación tecnológica, sea el tren, el fax, la televisión, la calculadora o la inteligencia artificial. El nivel de automatización que estamos alcanzando y que se perfeccionará en los próximos años son modelos de asistencia. Éstos pueden asumir bajo supervisión parte de las tareas dentro de un determinado perfil laboral, pero no una sustitución completa. Los sistemas que se están desarrollando son procesos inductivos, sus resultados se basan en métodos estadísticos. Y ello tiene sus límites: los algoritmos no entienden, no pueden contextualizar y eso no va a cambiar en los próximos años de forma previsible. En todo trabajo se requieren tareas deductivas y lógicas que son difíciles de formular y transformar en dato.

Las compañías capaces de aplicar dichos sistemas de forma efectiva podrán reducir el número de trabajadores empleados. No obstante, esos sistemas conllevan a su vez nuevos perfiles laborales capaces de supervisar y hacer uso de esas tecnologías. Ello creará a su vez nuevos puestos de trabajo y la necesidad de una formación laboral continuada. Si algo nos ha enseñado la historia de la tecnología es que toda pérdida de trabajo va a su vez acompañada por la creación de nuevos perfiles laborales.

«Si algo nos ha enseñado la historia de la tecnología es que toda pérdida de trabajo va a su vez acompañada por la creación de nuevos perfiles laborales.»

Por último, hagamos un poco de ciencia ficción. Has dicho en repetidas ocasiones que la inteligencia artificial no es inteligente. ¿Llegará a serlo? De ser así, ¿podrían los robots entrenados para dar respuestas éticas similares a las humanas, pero con capacidad para tomar sus decisiones, ser considerados sujetos de derechos y deberes?

Eso de momento no me lo puedo imaginar a plazo corto o medio. El tipo de inteligencia artificial que estamos usando se basa en métodos estadísticos, es decir procesos inductivos. El pensar, contextualizar, el mentir y engañar, etc. son procesos que requieren procesos de deducción (basados en pocos datos), de la capacidad de ponerse en la situación de la otra persona a nivel lógico y emocional, que requieren consciencia individual, etc. Esos procesos no son programables con las matemáticas y métodos estadísticos que estamos usando. Por mucho que vistamos la estadística de seda, estadística se queda.

Imágenes de: Joi Ito

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *