¿Deben ponerse límites a la inteligencia artificial?
La irrupción de las herramientas de IA Generativa pueden cambiar el concepto actual de derechos de daños. (Foto: Freepik)
¿Deben ponerse límites a la inteligencia artificial?
La irrupción de las herramientas de IA Generativa pueden cambiar el concepto actual de derechos de daños. (Foto: Freepik)
En breve: Las aplicaciones de la Inteligencia Artificial (IA) son cada vez mayores y serán muchas más en el futuro: automatización de procesos, creación de estructuras y obras de arte, localización de personas, control de enfermedades, usos científicos, militares o salvamiento de personas. Y es que, como cualquier tecnología, puede ser beneficiosa o perniciosa según cómo se utilice, lo que hace necesaria una ética y legislación adecuadas que establezcan sus límites.
INDICE:
- Responsable de la Inteligencia Artificial (IA).
- Geolocalización.
- Reconocimiento facial.
- Seguridad y privacidad.
- Conclusión.
- Responsable de la Inteligencia Artificial (IA)
Según la comunicación de la Comisión Europea sobre Inteligencia Artificial para Europa de 25 de abril de 2018: “El término «inteligencia artificial» (IA) se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción –con cierto grado de autonomía– con el fin de alcanzar objetivos específicos.” Pero una IA no surge de la nada, sino que requiere un programador original. Entonces, ¿quién es el responsable de la IA: (i) el ser humano que la diseñó –ex arts. 322 y 1105, a sensu contrario, del Código Civil–, (ii) quienes contribuyen a su “deep learning” (aprendizaje imitando el funcionamiento neuronal humano) –ex art. 1902 del Código Civil–, o (iii) la propia IA, considerada como “e-personality”, según aventura el art. 59-f de la resolución del parlamento europeo de 16 de febrero de 2017, con recomendaciones destinadas a la comisión sobre normas de derecho civil sobre robótica.
Y la cuestión no es baladí, porque ya se han producido casos en los que se ha perdido el control de la IA. En efecto, en 2016 los ingenieros de Google detectaron que su sistema de IA había creado un lenguaje propio con la red neuronal de traducción, sin que hubiera sido programado para ello ni hubiera reportado a ningún humano, de forma que era capaz de abstraer conceptos de un idioma que conocía (inglés) que le permitía traducir entre dos idiomas que nunca había traducido entre sí, sin necesidad de traducirlo previamente al inglés. Asimismo, en 2017 Facebook tuvo que desactivar su IA usada para los chatbots, debido a que había creado un idioma con su propio sistema de cifrado, que era comprensible para estos chatbots, pero ininteligible para las personas, lo que le convertía en potencialmente peligroso, al no poder saber lo que se comunicaban entre sí.
Y la trascendencia de esto es capital, pues grandes empresas tecnológicas como Google, Facebook, Amazon, PayPal, Tesla o Microsoft invierten en proyectos encaminados a lograr que la IA adquiera una suerte de sentido común, usando la lógica y la conexión de conceptos abstractos, emulando la capacidad de pensar de los seres humanos. Conscientes del riesgo que puede conllevar esto, paralelamente, se están trazando sistemas de vigilancia e intervención para evitar que una IA pueda llegar a ser ingobernable.
En esta línea, Google anunció en abril de 2019 la implantación de un “botón de emergencia” que permitiera desactivar instantáneamente su sistema de IA cuando pudiera ser considerado una amenaza, y evitar así casos como el que ocurrió con “Tay”, el bot de Microsoft que hacía comentarios racistas y sexistas en Twitter en 2016, o los sistemas de selección de personal de Facebook y Amazon, que debieron ser desactivados en 2018 debido a que discriminaban a las mujeres.
-
Geolocalización
La geolocalización siempre ha generado controversia por la intromisión en la privacidad que conlleva, contando con defensores y detractores según donde se aplique el foco de interés: hay quienes están a favor de que los padres puedan saber dónde están sus hijos menores; y hay quienes denuncian que se use como instrumento de control enfermizo en relaciones de pareja. Lo cierto es que la tecnología no es buena ni mala, sino que esa calificación habrá que dársela al uso que hagan las personas de ella. Y no cabe duda de que en algunas ocasiones ha sido de gran utilidad, como para resolver el caso del asesinato de Diana Quer, cuyo móvil pudo ser localizado y desbloqueado a pesar de haber estado dos meses enterrado en lodo bajo el agua.
Recientemente esta cuestión ha sido de candente actualidad debido a la polémica generada por la alianza de Apple y Google para crear un sistema de seguimiento integrado en iOS y Android para luchar contra la pandemia, y con la incorporación de España al proyecto europeo “Pepp-PT” (Consorcio de Rastreo Paneuropeo de Proximidad para Preservar la Privacidad), en los que se haría uso de los datos de geolocalización de los teléfonos móviles, mediante la implantación de un sistema de rastreo por proximidad basado en tecnologías como el Bluetooth, para hacer seguimiento de contagios por COVID-19, de forma similar a “Trace Together”, la app usada en Singapur.
Aunque se trataría de un protocolo (DP-3T: “Decentralized Privacy-Preserving Proximity Tracing”) donde los ciudadanos participarían voluntariamente, se cumpliría el Reglamento (UE) 2016/679 y del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (GDPR) no se utilizarían datos personales ni la información de geolocalización; se han suscitado dudas sobre su legalidad, por lo que la Comisión Europea dictó la Comunicación 2020/C 124 I/01 por la que se establecen orientaciones sobre las aplicaciones móviles de apoyo a la lucha contra la pandemia de Covid-19 en lo referente a la protección de datos.
-
Reconocimiento facial.
Otro gran aliado de la IA es el reconocimiento facial, que se ha desarrollado tanto que permite la recopilación masiva de datos sobre las características físicas de las personas, para su identificación y posterior tratamiento, incluso, sin que el afectado lo sepa, ya que puede ser captado por cámaras de establecimientos, lugares públicos, etc. Esta es la razón por la que se está empezando a tratar de poner límites al uso de esta tecnología.
Así, en San Francisco, ciudad que se precia de ser la más tecnológica del mundo, se prohibió su uso en mayo de 2019, para proteger el derecho a la privacidad y a la protección de las minorías (en particular, los afroamericanos, con los que la IA tendería a tener un trato discriminatorio), especialmente si esa herramienta es usada por agencias del orden. Y es que en Estados Unidos ya se están generando conflictos por esta cuestión, como cuando en abril de 2019, Ousmane Bah, un joven de raza negra de Nueva York, demandó a Apple por 1.000 millones de dólares, por haber sido detenido debido a un error en el sistema de reconocimiento facial, que lo vinculó con unos robos en las tiendas de Apple en los que no habría participado.
Y en efecto, la IA puede adolecer de los criterios éticos y legales necesarios para sacar conclusiones, estando condicionada por prejuicios que se hubieran infiltrado indebidamente en su proceso de aprendizaje, como sería el caso de los algoritmos usados por los tribunales penales de Estados Unidos para establecer perfiles de delincuentes, pues, según se denunció en la conferencia “Data for Black Lives” celebrada en Massachusetts en enero de 2019, se estaría partiendo de datos sesgados y contaminados, que prejuzgarían como potenciales delincuentes a los afroamericanos.
Conscientes del peligro que el uso inadecuado de estas tecnologías puede conllevar, algunos Estados como Arizona, Illinois, Massachusetts, New Hampshire o Vermont, están estudiando la aprobación de normativa que regule y limite el uso del reconocimiento facial; aunque el pionero ha sido el Estado de Washington, que en marzo de 2020 ha aprobado la Ley SB 6280, que es la primera en regular el uso de técnicas de reconocimiento facial por las agencias del gobierno de los Estados Unidos, y cuyo objetivo es lograr un equilibrio entre sus beneficios y los riesgos de intrusión en la intimidad de los ciudadanos.
Al margen de las distintas iniciativas que se van adoptando en los distintos países en aras de reforzar la privacidad –por ejemplo, España promulgó la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de los Derechos Digitales –, en el seno de la Unión Europea también existe preocupación por esta cuestión, y en abril de 2019 se aprobó por el Parlamento Europeo la creación de la base de datos centralizada “Common Identity Repository” (CIR), con la finalidad de que, con las debidas garantías legales, incluya información personal (nombre, dirección, fecha de nacimiento y número de documento de identidad) y los datos biométricos (huella dactilar y rostro) de 500 millones de habitantes, para ser usada por las policías, cuerpos de seguridad y controles aduaneros de los Estados miembros.
-
Seguridad y privacidad.
El debate sobre la prevalencia entre la seguridad o la privacidad no es nuevo y, de hecho, la nueva realidad online lo ha heredado del mundo offline, donde hace tiempo que se discute sobre si debemos renunciar a parte de nuestra intimidad para tratar de garantizar una mayor seguridad. Y es que, lejos de haberse difuminado, esta cuestión se ha acentuado en el ciberespacio, debido a que la IA y las tecnologías que hemos comentado tienen una capacidad intrusiva mucho mayor que cualquier medida que pudiera adoptarse fuera del universo digital.
De esta forma, se están elaborando directrices que marquen los parámetros éticos y legales que deben respetar los sistemas de IA. Así, en mayo de 2019 los 36 países miembros de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), más Argentina, Brasil, Colombia, Costa Rica, Perú y Rumanía, suscribieron en París la Resolución OECD/LEGAL/0449 que recoge los principios sobre la IA; y en octubre de 2019 el Ministerio de Economía Digital y Sociedad Digital de Tailandia presentó un borrador de Pautas sobre Ética de Inteligencia Artificial.
Por su parte, Estados Unidos publicó en enero de 2020 un documento (“Memorandum for the Heads ff Executive Departments and Agencies”) con los 10 principios que deben tener en cuenta los organismos y entidades dependientes del Gobierno Federal que desarrollen sistemas de IA. Asimismo, en marzo de 2020, el Secretario de Defensa, Mark Esper, aseguró que el ejército de su país haría uso de la IA “solo para el bien”, marcando que deberá regirse bajo las reglas de ser responsable, equitativo, rastreable, fiable y gobernable.
Igualmente, en abril de 2019 la Comisión Europea publicó un Código Ético con guías sobre la Inteligencia Artificial, que garantice que esté centrada en el ser humano y que respete los derechos fundamentales, principios éticos y valores necesarios para la dignidad de las personas, en particular de grupos vulnerables, como niños, personas con discapacidad o minorías y en situaciones de asimetría de poder o información, como podría suceder entre empleadores y empleados o empresas y consumidores. Y en febrero de 2020 se anunció que está trabajando en un Libro Blanco sobre la Inteligencia Artificial en Europa, para establecer un marco regulatorio europeo que promueva su desarrollo, pero asegurando el respeto a los valores y principios de la Unión Europea.
-
Conclusión.
No cabe duda de que existe una concienciación global sobre el gran potencial de la IA, que constituye, a la vez, su virtud y su defecto, ya que la multitud de aplicaciones que se le pueden dar viene acompañada de un reverso peligroso, que ha de controlarse mediante límites que garanticen que está regida en todo momento por principios éticos y legales. Es por ello que, aunque su desarrollo es aún incipiente, diversos Estados y Organismos internacionales están elaborando normativas para evitar que se vulnere la privacidad de las personas y que se atente contra derechos fundamentales, como el de igualdad o seguridad.