La frase «un gran poder conlleva una gran responsabilidad» ha sido popularizada por Stan Lee, el creador de Spider-Man, en sus cómics, pero sigue siendo válida. La inteligencia artificial (IA) representa un área de innovación tecnológica donde se están logrando avances notables. Aunque este concepto se originó con la conferencia de Dartmouth en 1956, en la última década ha cambiado drásticamente nuestra vida diaria, con la llegada de sistemas de IA y algoritmos que han tenido un impacto significativo.
Marvin Minsky, un científico cognitivo, expresa que hemos programado a las computadoras para que tomen decisiones de manera autónoma «que requieren inteligencia», lo que es un logro «asombroso y esperanzador, pero también inquietante». Ya no son simplemente robots que realizan tareas preestablecidas con precisión; ahora, se trata de sistemas artificiales que «deciden» por sí mismos, imitando nuestros propios procesos de pensamiento y aprendizaje.
David Leslie, que trabaja en el Alan Turing Institute en Londres y es autor de un documento innovador titulado Understanding Artificial Intelligence Ethics and Safety, sostiene que “cuando los humanos llevan a cabo tareas que exigen inteligencia, son responsables de la precisión, fiabilidad y sensatez de sus decisiones”. Se evalúan especialmente por “el impacto de sus acciones en otros seres humanos”. Esta responsabilidad ética y legal debe aplicarse también a los sistemas de inteligencia artificial, que son cada vez más complejos y sofisticados, y que utilizamos en áreas como la salud, la educación, el transporte o la seguridad. Sin embargo, surge un interrogante: ¿puede la IA ser considerada responsable ética y legalmente por sus acciones?
Seguridad meticulosa y no intrusiva
Estos dilemas son especialmente claros en el ámbito de la seguridad privada, que es muy receptiva a la innovación. “La tecnología otorga superpoderes a nuestros vigilantes”, comenta José Daniel García Espinel, el director de Innovación de Prosegur. Esta empresa de seguridad está llevando a cabo una transformación tecnológica significativa, impulsada por la pandemia. Actualmente, cuentan con sistemas que analizan cualitativamente las imágenes de cámaras de videovigilancia, tecnologías avanzadas para detectar incendios, ruidos, gases o caídas de objetos, controles de acceso que no son invasivos, que verifican la temperatura y el uso de equipo de protección personal… Todo un arsenal tecnológico de última generación enfocado en crear entornos más seguros, que, como señala García Espinel, “hace un uso intensivo de algoritmos de inteligencia artificial desarrollados internamente o de otros preexistentes”.
Según el especialista Fernando Boudourian, la implementación de tecnologías recientes en la supervisión de las infraestructuras de transporte se ha realizado con estricto apego a la normativa vigente sobre la protección de datos y a una consideración ética acerca del uso de la inteligencia artificial.
José Daniel García Espinel, director de Innovación de Prosegur.
Un caso práctico de cómo estas tecnologías pueden mejorar la seguridad y la vigilancia es en el ámbito del transporte, donde los controles pueden llevarse a cabo de forma ágil y sin causar molestias a los usuarios, gracias a la asistencia de cámaras inteligentes que se conectan a un sistema de comunicaciones, a un centro de control remoto y a un centro de operaciones de seguridad (SOC, en inglés). García Espinel resalta que “este avance cualitativo se ha realizado con suma cautela, respetando plenamente la normativa actual de protección de datos y reflexionando previamente sobre los dilemas éticos que implica la utilización de tecnologías como la inteligencia artificial”.
Un nuevo panorama legal.
El 21 de abril, la Comisión Europea presentó las pautas de su próximo reglamento sobre el uso de la inteligencia artificial. En este documento se reconoce que “los posibles beneficios de la IA para nuestras sociedades son variados” y que la mayoría de los sistemas que se implementen tendrán “bajo riesgo o ninguno”. Sin embargo, en aquellas situaciones donde existan dichos riesgos, la Comisión se compromete a proteger “los derechos fundamentales de los ciudadanos europeos”. Para esto, se establecerá un régimen de sanciones administrativas que podrá afectar tanto a los proveedores de estos sistemas de IA como a sus usuarios. Las infracciones más graves podrán conllevar multas de hasta 30 millones de euros o, si el infractor es una entidad, hasta el 6% de su facturación anual.
Para el economista y académico de la Universidad Internacional de La Rioja (UNIR), Iñaki Ortega, ha llegado el momento de asumir la plena responsabilidad: “Los ejecutivos de las grandes compañías deberían reconocer que algunas decisiones que toman en el desempeño de su labor pueden violar derechos y resultar inmorales”. Detrás de la aplicación irresponsable de algoritmos y sistemas “hay individuos concretos”. Él sugiere “una especie de nuevo juramento hipocrático para estos tecnólogos, una iniciativa que muchas instituciones ya están considerando”.
En particular, Ortega tiene una alta apreciación por uno de esos compromisos éticos, conocido como “el juramento tecnocrático” que impulsa la Universidad de Columbia junto al neurobiólogo español Rafael Yuste. Este juramento debería ser firmado por emprendedores, investigadores, especialistas en informática y cualquier profesional que trabaje en el campo de la neurotecnología o la inteligencia artificial. Se trataría de un juramento público “para conferir una mayor solemnidad y peso moral”, e incluiría compromisos como “la no maleficencia (la tecnología debe ser empleada siempre sin la intención de causar daño), la promoción del bien común, el consentimiento de aquellos afectados, la imparcialidad en los algoritmos (sin sesgos discriminatorios), la transparencia y un pleno respeto hacia la dignidad de las personas”.
La transparencia y el respeto a la privacidad son características que normalmente exigimos a las instituciones públicas, pero a menudo no recordamos solicitar lo mismo a quienes crean algoritmos.
Maite López Sánchez, profesora de la Universitat de Barcelona, también reflexiona en una dirección similar. Para ella, “cada vez se toma más conciencia de que el diseño de algoritmos y sistemas de inteligencia artificial debe alinearse más con los valores éticos de las personas, lo que requiere ir más allá de lo que es legal, considerando también hasta qué punto se ajusta a nuestro sistema ético de valores”. Dentro de este conjunto de principios, López destaca, de manera muy oficial, “la transparencia y el respeto por la privacidad”, y señala que son aspectos que normalmente demandamos de las instituciones públicas “pero a menudo olvidamos solicitarlos a quienes desarrollan algoritmos”.
Un deber ético que han adoptado las principales empresas
En el ámbito empresarial, organizaciones como Google, Hewlett Packard o Microsoft han estado estableciendo en los últimos años sus propios protocolos y códigos morales internos fundamentados en criterios de responsabilidad corporativa bastante rigurosos. Según Tim Bajarin, especialista en tecnología y derechos de los consumidores, estos conjuntos de buenas prácticas comparten “la intención de ir más allá de los nuevos marcos legales que se están elaborando en Europa, Estados Unidos y Gran Bretaña”. Según Bajarin, todos estos esfuerzos se basan en una comprensión realista “de lo que podría suceder si no seguimos una serie de directrices y principios estrictos, lo que primero nos lleva a preguntarnos si esta tecnología es realmente necesaria y si sus beneficios potenciales superan claramente los riesgos posibles”.