Читать книгу Inteligencia artificial (Umbrales éticos, Derecho y Administraciones Públicas) онлайн

28 страница из 46

Los anteriores principios éticos se traducen, a su vez, en siete requisitos, concretos, que deben concurrir para hacer realidad una IA fiable: 1) acción y supervisión humanas, 2) solidez técnica y seguridad, 3) gestión de la privacidad y de los datos, 4) transparencia, 5) diversidad, no discriminación y equidad, 6) bienestar ambiental y social, y 7) rendición de cuentas.

Estos requisitos tienen como destinatarios: a los desarrolladores, que deben introducir y aplicar los requisitos en los procesos de diseño y desarrollo; a los responsables del despliegue, que deben asegurarse de que los sistemas que utilizan y los productos y servicios que ofrecen cumplen los requisitos establecidos; a los usuarios finales y la sociedad en su conjunto, que deben permanecer informados sobre dichos requisitos y tener la capacidad de pedir que se cumplanssss1.

3. PRINCIPIOS ÉTICOS Y DERECHO. AUTORREGULACIÓN Y/O REGULACIÓN

Hemos hecho referencia, anteriormente, a los principios éticos que sustentan el uso de la Inteligencia Artificial, la pregunta ahora es si dichos principios éticos son suficientes para garantizar el desarrollo y el buen uso de la misma. Es decir, si además de estos es necesaria la adopción de un marco normativo vinculante, específico de la Inteligencia Artificial, que resuelva las deficiencias y lagunas que se presentan, en este sector, y de respuesta a problemas estrictamente jurídicos que se plantean. Es cierto que, por lo menos en el marco europeo, algunos de estos principios éticos pueden extraerse o derivarse de normas concretas del Derecho Comunitario (y de normas nacionales de los países miembros) tanto del Derecho originario (Tratados) como del Derecho derivado (Reglamentos y Directivas, fundamentalmente) como, por ejemplo, el principio de igualdad y no discriminación (en relación a la discriminación algorítmica, por ejemplo) y en tanto forman parte de dicho Derecho se convierten en principios jurídicos aplicables y vinculantes. Ahora bien, este sería sin duda un sistema inacabado, con lagunas interpretativas e, incluso, con vacío legal en muchos aspectos, como expondremos más adelante. Y es que en el uso de esta tecnología pueden surgir disputas legales sobre responsabilidades entre los proveedores de tecnología de Inteligencia Artificial y las empresas y entre estas y los usuarios que pueden ver, por ejemplo, vulnerados sus derechos, algunos de ellos, incluso, derechos fundamentales (a la igualdad, a la no discriminación, a la tutela judicial efectiva…) o que dicha vulneración de derechos se derive del uso de la Inteligencia Artificial por parte de las Administraciones Públicas, lo que puede dar lugar al derecho a percibir una indemnización (de responsabilidad patrimonial) por parte de las mismas. La pregunta, por tanto, es si es suficiente con una autorregulación en el uso de esta tecnología, basada en los principios éticos que se han ido estableciendo al respecto, y de los que hemos dado cuenta anteriormente, o bien si es más conveniente la aprobación de un marco jurídico vinculante que, además, pueda ser complementado con normas éticas e instrumentos de soft law (directrices, guías, códigos éticos…). La respuesta es, sin duda controvertida, dada la necesidad de no “encorsetar” u “obturar” el desarrollo de esta tecnología. Así, entre las distintas potencias en Inteligencia Artificial, la respuesta es dispar. Mientras Estados Unidos viene defendiendo que la regulación debe considerarse como “última ratio” y siempre que no sea posible la autorregulación, China, por su parte, sigue un modelo de fuerte intervención y liderazgo gubernamental con vistas a dominar el mercado globalssss1.

Правообладателям